AI2がMoEモデル「EMO」を発表(ドキュメント単位ルーティングが特徴)

Reddit r/LocalLLaMA / 2026/5/9

📰 ニュースSignals & Early TrendsModels & Research

要点

  • AI2(AllenAI)から、MoE(Mixture of Experts)モデル「EMO」が新たにリリースされたと報じられています。
  • EMOは「1b-active/14b-total」の構成で、累計1兆トークン(1T tokens)で学習されたとされています。
  • 特徴として、ドキュメント単位でルーティング(document-level routing)を行い、専門家(experts)が医療・ニュースなどの“領域”ごとにクラスタ化される点が挙げられています。
  • モデルはHugging Faceのコレクション(allenai/emo)で公開されています。
new MoE from ai2, EMO

ai2からの新しいMoEリリース - EMO、1b-active/14b-total、1tトークンで学習

興味深いのはドキュメント単位のルーティングです。表層のパターンではなく、専門家は健康、ニュースなどの領域ごとにクラスタを形成します

モデル: https://huggingface.co/collections/allenai/emo

投稿者 /u/ghostderp
[リンク] [コメント]