広告

Liquid AI、LFM2.5-350Mをリリース -> 350Mパラメータでエージェンシック・ループ

Reddit r/LocalLLaMA / 2026/4/1

📰 ニュースSignals & Early TrendsTools & Practical UsageModels & Research

要点

  • Liquid AIはLFM2.5-350Mモデルをリリースしました。「エージェンシック・ループ」の挙動を約350Mパラメータで実現し、信頼性の高いデータ抽出とツール利用向けに位置づけられています。
  • このモデルは制約のある環境でも使えることを目指しており、量子化すると500MB未満のフットプリントで動作すると主張しています。さらに、大規模なベースラインと比べて速度とメモリ効率が向上するとされています。
  • Liquid AIは、スケールしたRL(強化学習)で28Tトークンに学習したと報告しており、多くのベンチマークでQwen3.5-0.8Bなどのモデルを上回ると主張しています。
  • リリースでは、クロスプラットフォームでの展開(CPU、GPU、モバイル向けハードウェア)と、関数呼び出し、エージェントのワークフロー、構造化出力の信頼性を強調しています。
  • この記事では、Liquid AIのブログ記事と、モデルをダウンロードして試せる利用可能なHugging Faceのチェックポイントへの案内がされています。
Liquid AI releases LFM2.5-350M -> Agentic loops at 350M parameters

Liquid AIのLFM2.5-350Mは、信頼性の高いデータ抽出とツールの利用のために学習されました。

量子化すると<500MBになり、計算、メモリ、レイテンシが特に厳しく制約される環境向けに設計されています。

スケールドRLで28Tトークンにより学習されており、ほとんどのベンチマークでQwen3.5-0.8Bのようなより大きなモデルを上回ります。さらに、大幅に高速で、メモリ効率も高いです。

  • CPU、GPU、モバイルの各環境で動作
  • 高速、効率的、低レイテンシ
  • 信頼性の高い関数呼び出しとエージェントのワークフロー
  • 確実に頼れる一貫した構造化出力

詳細: http://www.liquid.ai/blog/lfm2-5-350m-no-size-left-behind
HFモデルのチェックポイント: https://huggingface.co/LiquidAI/LFM2.5-350M

によって提出 /u/PauLabartaBajo
[リンク] [コメント]

広告