生成AIの現在の状況において、「スケーリング則」は一般に、パラメータ数が多いほど知能も高い、ということを規定してきました。しかし、Liquid AIはLFM2.5-350Mのリリースによって、この慣例に挑戦しています。このモデルは実際には、追加の事前学習(10Tから28Tトークンへ)と大規模な強化学習を伴う「知能密度」の技術的なケーススタディです。The […]
記事 Liquid AI Released LFM2.5-350M: A Compact 350M Parameter Model Trained on 28T Tokens with Scaled Reinforcement Learning は、最初に MarkTechPost に掲載されました。




