Zyphra 1 - 8B MoEを試した人はいますか?

Reddit r/LocalLLaMA / 2026/5/7

📰 ニュースIndustry & Market MovesModels & Research

要点

  • Zyphraは、推論に焦点を当てたMixture-of-Experts(MoE)モデル「ZAYA1-8B」をリリースし、推論時のアクティブパラメータは1B未満だとされています。
  • 「インテリジェンス密度」を最適化することを目的に、モデルサイズに対してより高い数学・推論性能を狙うと説明されています。
  • 発表では、ZAYA1-8Bが数学・推論ベンチマークで、サイズの大きい複数のオープンウェイトモデルを上回り、さらにテスト時の計算量(test-time compute)を使うことでDeepSeek-V3.2やGPT-5-Highに迫ると主張しています。
  • この投稿はReddit上で「試した人はいるか」と問いかける形で共有されており、コミュニティによる初期評価への関心がうかがえます。
  • 本件は分析やチュートリアルではなく、モデルの新規リリースという“新しい出来事”として示されています。

https://x.com/ZyphraAI/status/2052103618145501459?s=20 本日、知能密度向けに最適化された、推論MoEであるZAYA1-8Bをリリースします。

u/AMD

アクティブパラメータが<1Bのため、数学と推論において、サイズの何倍もあるオープンウェイトモデルを何度も上回り、テスト時の計算でDeepSeek-V3.2およびGPT-5-Highに迫っています

/u/appakaradi
[リンク] [コメント]