| https://huggingface.co/XiaomiMiMo/MiMo-V2.5 モデル概要
[リンク] [コメント] |
feat: AesSedai による ggml-org/llama.cpp Pull Request #22493 で Mimo v2.5 モデル対応を追加
Reddit r/LocalLLaMA / 2026/5/7
📰 ニュースDeveloper Stack & InfrastructureTools & Practical UsageModels & Research
要点
- AesSedai が ggml-org/llama.cpp に XiaomiMiMo の MiMo v2.5 モデル対応を追加するプルリクエストを提出しました。
- MiMo v2.5 はスパース Mixture of Experts(MoE)アーキテクチャで、総パラメータは310B、活性化は15Bです。
- 最大100万トークンの非常に長いコンテキスト長に対応し、テキスト・画像・動画・音声のマルチモーダルを扱えます。
- 729Mパラメータの ViT ビジョンエンコーダ、261Mパラメータの音声トランスフォーマーエンコーダ、さらに Multi-Token Prediction(MTP)部(329Mパラメータ)を備えています。
- 今回の更新により、llama.cpp で MiMo v2.5 系のローカルなマルチモーダル推論を行える幅が広がります。




