広告

Liquid AI、LFM2.5-350Mをリリース:28Tトークンで学習したコンパクト350Mパラメータモデルと、スケールした強化学習

MarkTechPost / 2026/4/1

📰 ニュースSignals & Early TrendsModels & Research

要点

  • Liquid AIは、パラメータ数の増加だけに頼るのではなく、より高い「インテリジェンス密度」を示すことを目的とした、350Mパラメータのコンパクト言語モデル「LFM2.5-350M」をリリースしました。
  • このモデルは追加の事前学習を受けており、トレーニングデータを10Tから28Tトークンへ拡大することで、パラメータ予算が小さいにもかかわらず能力の向上を図っています。
  • Liquid AIは、モデル全体の学習レシピの一部として、大規模な強化学習の利用、そして「スケールした強化学習」アプローチを含めていると報告しています。
  • 今回のリリースは、パラメータサイズの大きさが知能に直接結びつくという従来の生成AIのスケーリング前提に挑む、技術的なケーススタディとして位置付けられています。

生成AIの現在の状況において、「スケーリング則」は一般に、パラメータ数が多いほど知能も高い、ということを規定してきました。しかし、Liquid AIはLFM2.5-350Mのリリースによって、この慣例に挑戦しています。このモデルは実際には、追加の事前学習(10Tから28Tトークンへ)と大規模な強化学習を伴う「知能密度」の技術的なケーススタディです。The […]

記事 Liquid AI Released LFM2.5-350M: A Compact 350M Parameter Model Trained on 28T Tokens with Scaled Reinforcement Learning は、最初に MarkTechPost に掲載されました。

広告