| Liquid AIのLFM2.5-350Mは、信頼性の高いデータ抽出とツールの利用のために学習されました。 量子化すると<500MBになり、計算、メモリ、レイテンシが特に厳しく制約される環境向けに設計されています。 スケールドRLで28Tトークンにより学習されており、ほとんどのベンチマークでQwen3.5-0.8Bのようなより大きなモデルを上回ります。さらに、大幅に高速で、メモリ効率も高いです。
詳細: http://www.liquid.ai/blog/lfm2-5-350m-no-size-left-behind [リンク] [コメント] |
Liquid AI、LFM2.5-350Mをリリース -> 350Mパラメータでエージェンシック・ループ
Reddit r/LocalLLaMA / 2026/4/1
📰 ニュースSignals & Early TrendsTools & Practical UsageModels & Research
要点
- Liquid AIはLFM2.5-350Mモデルをリリースしました。「エージェンシック・ループ」の挙動を約350Mパラメータで実現し、信頼性の高いデータ抽出とツール利用向けに位置づけられています。
- このモデルは制約のある環境でも使えることを目指しており、量子化すると500MB未満のフットプリントで動作すると主張しています。さらに、大規模なベースラインと比べて速度とメモリ効率が向上するとされています。
- Liquid AIは、スケールしたRL(強化学習)で28Tトークンに学習したと報告しており、多くのベンチマークでQwen3.5-0.8Bなどのモデルを上回ると主張しています。
- リリースでは、クロスプラットフォームでの展開(CPU、GPU、モバイル向けハードウェア)と、関数呼び出し、エージェントのワークフロー、構造化出力の信頼性を強調しています。
- この記事では、Liquid AIのブログ記事と、モデルをダウンロードして試せる利用可能なHugging Faceのチェックポイントへの案内がされています。




