XiaomiMiMo MiMo-V2.5 (not pro) - Architecture: Sparse MoE (Mixture of Experts), 310B total / 15B activated parameters

Reddit r/LocalLLaMA / 4/29/2026

💬 OpinionSignals & Early TrendsModels & Research

Key Points

  • XiaomiMiMoの「MiMo-V2.5(ノンプロ)」は、Sparse MoE(Mixture of Experts)を採用した310B総パラメータ規模のモデルです。
  • 活性化(activated)パラメータは15Bで、全パラメータを常時計算する方式よりも計算負荷を抑えられる設計とされています。
  • 同記事では、上位モデルの「より大きい兄」ではなく本モデルのほうが、より一般的な“人間寄りの”構成(ローカル環境など)で運用しやすい点が注目されています。
  • Hugging Faceの公開ページ(XiaomiMiMo/MiMo-V2.5)へのリンクが共有され、利用・検証の入口が示されています。

https://huggingface.co/XiaomiMiMo/MiMo-V2.5

Interesting because unlike its bigger brother it can be run on "more human" configurations

submitted by /u/LegacyRemaster
[link] [comments]