For Non-hallucinating work, MiMo 2.5 delivers

Reddit r/LocalLLaMA / 4/28/2026

💬 OpinionSignals & Early TrendsTools & Practical UsageModels & Research

Key Points

  • MiMo-V2.5-Pro(MITライセンスで完全オープンソース)は、Opus 4.7 max に対して非常に近い性能を示し、通常版V2.5もSOTAにあと一歩の位置づけです。
  • いずれも非ハルシネーション率が高く、MiMo 2.5ではそれぞれ75%と68%の非ハルシネーション率が報告されています。
  • 「Best intel/hallucination model yet(これまでで最良の“精度/ハルシネーション”モデル)」として、実用面での有望さが強調されています。
  • V2.5のFP8は大容量(約316GB級)で、環境によっては厳しめの3bit量子化と128GBクラスのマシンでの運用が“可能かもしれない”という言及もあります。
For Non-hallucinating work, MiMo 2.5 delivers

MIT license and fully open source. MiMo-V2.5-Pro was just 3 points from Opus 4.7 max and the normal V2.5 is only a step behind SOTA. But both produce 75% and 68% non-hallucination rate. Best intel/hallucination model yet.

V2.5 FP8 is like 316GB, you *might* be able to run a tight 3 bit quant with 128gb m5 max.

From Gemma to Qwen3.6 to Kimi2.6 to Deepseek v4 to MiMo2.5, this probably is the best April.

https://preview.redd.it/fvurbt2ekuxg1.png?width=1076&format=png&auto=webp&s=a62fa83e39d723a7e31c505e516f18074c90a186

https://preview.redd.it/s1vygazekuxg1.png?width=2093&format=png&auto=webp&s=51924f7a0bca951190395ee0d12405f6f1dc7089

submitted by /u/Beamsters
[link] [comments]