XiaomiMiMo MiMo-V2.5(非プロ)— Sparse MoE(Mixture of Experts)アーキテクチャ、総310B / 活性化15B

Reddit r/LocalLLaMA / 2026/4/29

💬 オピニオンSignals & Early TrendsModels & Research

要点

  • XiaomiMiMoの「MiMo-V2.5(ノンプロ)」は、Sparse MoE(Mixture of Experts)を採用した310B総パラメータ規模のモデルです。
  • 活性化(activated)パラメータは15Bで、全パラメータを常時計算する方式よりも計算負荷を抑えられる設計とされています。
  • 記事では、上位モデルの「より大きい兄」ではなく本モデルのほうが、より一般的な“人間寄りの”構成(ローカル環境など)で運用しやすい点が注目されています。
  • Hugging Faceの公開ページ(XiaomiMiMo/MiMo-V2.5)へのリンクが共有され、利用・検証の入口が示されています。

https://huggingface.co/XiaomiMiMo/MiMo-V2.5

面白いのは、大きい兄に比べて「より人間らしい」構成で動かせることです

提出者: /u/LegacyRemaster
[リンク] [コメント]