Zyphraが推論MoEモデル「ZAYA1-8B」をリリース——AMDハードで学習し“重量級”に匹敵する性能

MarkTechPost / 2026/5/7

📰 ニュースSignals & Early TrendsIndustry & Market MovesModels & Research

要点

  • Zyphraは、アクティブパラメータ760Mの推論型Mixture of Experts(MoE)モデル「ZAYA1-8B」をリリースし、数学・コーディングのベンチマークで多くのより大きいオープンウェイトモデルを上回る性能を示しています。
  • 同モデルは、Markovian RSAという新しいテスト時計算(test-time compute)手法により、DeepSeek-V3.2に迫り、HMMT’25でClaude 4.5 Sonnetを上回るとされています。
  • ZAYA1-8BはAMD Instinct MI300ハードウェア上でエンドツーエンド学習されており、AMDプラットフォームでも大きな成果が得られることを示す内容です。
  • Apache 2.0ライセンスで公開されているため、「小型モデルの重みクラス」で知能密度を高めたモデルとして、より広い利用・検証が期待されます。

Zyphraは、アクティブパラメータがわずか7.6億(760M)に過ぎない推論型Mixture of Experts(MoE)モデル「ZAYA1-8B」をリリースしました。数学およびコーディングのベンチマークで、同サイズの何倍も大きいオープンウェイトモデルを上回り、DeepSeek-V3.2に迫り、さらに新しいマルコフ的RSAの推論時コンピュート手法によってHMMT'25でClaude 4.5 Sonnetを上回ります。AMD Instinct MI300ハードウェア上でエンドツーエンドで学習され、Apache 2.0の下で公開された本モデルは、小型言語モデルの重みクラスにおける「知能密度」の新たな基準を打ち立てます。

この記事はZyphra Releases ZAYA1-8B: A Reasoning MoE Trained on AMD Hardware That Punches Far Above Its Weight Classとして、最初にMarkTechPostに掲載されました。