| MITライセンスで完全にオープンソースです。MiMo-V2.5-ProはOpus 4.7の最大値に対してわずか3ポイント差で、通常のV2.5もSOTAから1ステップ遅れているだけです。しかし、どちらも幻覚しない率が75%と68%です。これまでで最高の情報量/幻覚モデルです。 V2.5 FP8は316GBみたいなもので、128gbのm5 maxなら、きっちり3ビットの量子化を動かせる可能性があります。 GemmaからQwen3.6、Kimi2.6、Deepseek v4、MiMo2.5まで。おそらく今月4月で一番良いです。 [リンク] [コメント] |
非ハルシネーションな作業に向けて、MiMo 2.5が成果を出す
Reddit r/LocalLLaMA / 2026/4/28
💬 オピニオンSignals & Early TrendsTools & Practical UsageModels & Research
要点
- MITライセンスで完全オープンソースのMiMo-V2.5-Proは、Opus 4.7 max に非常に近い性能を示し、通常版V2.5もSOTAにあと一歩の位置づけです。
- いずれも非ハルシネーション率が高く、MiMo 2.5ではそれぞれ75%と68%の非ハルシネーション率が報告されています。
- 「これまでで最良の“精度/ハルシネーション”モデル」として、実用面での有望さが強調されています。
- V2.5のFP8は大容量(約316GB級)で、環境次第では厳しめの3bit量子化と128GBクラスのマシンでの運用が“可能かもしれない”という言及もあります。




