feat: AesSedai による ggml-org/llama.cpp Pull Request #22493 で Mimo v2.5 モデル対応を追加

Reddit r/LocalLLaMA / 2026/5/7

📰 ニュースDeveloper Stack & InfrastructureTools & Practical UsageModels & Research

要点

  • AesSedai が ggml-org/llama.cpp に XiaomiMiMo の MiMo v2.5 モデル対応を追加するプルリクエストを提出しました。
  • MiMo v2.5 はスパース Mixture of Experts(MoE)アーキテクチャで、総パラメータは310B、活性化は15Bです。
  • 最大100万トークンの非常に長いコンテキスト長に対応し、テキスト・画像・動画・音声のマルチモーダルを扱えます。
  • 729Mパラメータの ViT ビジョンエンコーダ、261Mパラメータの音声トランスフォーマーエンコーダ、さらに Multi-Token Prediction(MTP)部(329Mパラメータ)を備えています。
  • 今回の更新により、llama.cpp で MiMo v2.5 系のローカルなマルチモーダル推論を行える幅が広がります。
feat: Add Mimo v2.5 model support by AesSedai · Pull Request #22493 · ggml-org/llama.cpp

https://huggingface.co/XiaomiMiMo/MiMo-V2.5

モデル概要

  • アーキテクチャ: スパースMoE(Mixture of Experts)、総計310B / 有効15Bパラメータ
  • コンテキスト長: 最大1Mトークン
  • モダリティ: テキスト、画像、動画、音声
  • ビジョン・エンコーダ: 729MパラメータのViT(28層: 24 SWA + 4 Full)
  • オーディオ・エンコーダ: 261MパラメータのAudio Transformer(24層: 12 SWA + 12 Full)
  • マルチトークン予測(MTP): 329Mパラメータ、3層
提出者 /u/jacek2023
[リンク] [コメント]

feat: AesSedai による ggml-org/llama.cpp Pull Request #22493 で Mimo v2.5 モデル対応を追加 | AI Navigate