Xiaomiが新しいMiMo-V2-Pro LLMを発表、GPT-5.2・Opus 4.6相当の性能を低コストで実現

VentureBeat / 2026/3/19

📰 ニュースSignals & Early TrendsIndustry & Market MovesModels & Research

要点

  • XiaomiはMiMo-V2-Proを発表しました。これは1兆パラメータのファウンデーションモデルで、独自API経由でアクセスした場合OpenAIおよびAnthropicと競合するベンチマークを謳い、約1/6〜1/7のコストで提供され、1回のやり取りで交換されるトークンは256,000未満です。
  • このモデルは前方伝搬ごとにアクティブパラメータが42Bしかなく、MiMo-V2-Flashの前身機の約3倍の規模を持つスパースアーキテクチャを採用しており、長期タスクにわたる推論を効率化します。
  • 7:1ハイブリッドアテンション機構を採用し、1,000,000トークンのコンテキストウィンドウをサポートします。これにより長時間実行されるタスクの深い記憶を可能にし、新たなエージェント指向のAIパラダイムを形成します。
  • Xiaomiはこのリリースを新興の「エージェント時代」の一部として位置づけ、コード生成を超え、サプライチェーンの管理や自律的なコーディングタスクといった複雑なシステムを扱える自律デジタルエージェントへと向かうことを目指しています。
  • 同社は安定版が出た段階で派生モデルをオープンソース化する予定で、最前線AI競争とハードウェア・ソフトウェア統合プレイヤー間の協力に対するより広い影響を示唆しています。

中国の電子機器・自動車メーカーXiaomiは、本日、世界のAIコミュニティを驚かせました MiMo-V2-Pro のリリース、1兆パラメータ級のファウンデーションモデルで、OpenAIやAnthropicといった米国のAI大手に近づくベンチマークを持ちながら、独自APIを介してアクセスする場合のコストは約7分の1~6分の1程度で、さらに重要なのは送受信される情報が256,000トークン未満であることだ。

DeepSeek R1プロジェクトの革新的なベテランであるFuli Luoが率いるこのリリースは、Luoが世界のフロンティアに対して「静かな奇襲」と特徴づけるものを体現しています。さらに、同社がこの最新リリースからのモデル派生版をオープンソース化する計画があると述べたX上の投稿は「モデルが安定して、それに値するほど安定した時に限る」としている。

知能の「アクション空間」に焦点を当て、コード生成からデジタルな「爪」の自律運用へと移行することで、Xiaomiは会話型パラダイムを完全に飛び越えようとしている。

この最前線AIへの進出に先立ち、北京を拠点とするXiaomiは「モノのインターネット(IoT)」と消費者向けハードウェアの大手として自らを確立していた。

世界で3番目に大きいスマートフォンメーカーとして世界的に認識されているXiaomiは、2020年代初頭を通じて自動車セクターへの高リスクな参入を進めてきた。その電気自動車(EV)としてSU7 や最近発売されたYU7 SUV は、ハードウェア、ソフトウェア、そして現在では高度な推論を統合する垂直統合の大手へと転換させた。

この実世界のエンジニアリングの系譜はMiMo-V2-Proのアーキテクチャに影響を与えており、世界規模のサプライチェーンを管理するシステムであろうと、自律的なコーディングエージェントの複雑な枠組みを操る場面であろうと、複雑なシステムの“脳”として機能するよう設計されています。

技術: 自律性のアーキテクチャ

エージェント時代の中核的な課題は、巨大なデータの範囲に対して高忠実度の推論を維持しつつ、遅延やコストの過度な「知能税」を課さないことです。MiMo-V2-Proはスパースなアーキテクチャによってこれを実現します。総パラメータは1兆ですが、任意の1回の順伝播でアクティブとなるのは420億パラメータのみで、前任のMiMo-V2-Flashの約3倍の規模です。

標準的なトランスフォーマーは、コンテキストが拡大すると計算量が二次的に増加しますが、MiMo-V2-Proは1Mトークンのコンテキストウィンドウを管理するために7:1のハイブリッド比を使用します(Flash版の5:1から増加)。このアーキテクチャの選択により、長時間実行されるタスクの深い「記憶」を、最前線モデルで通常見られる性能低下を伴わずに維持できます。

たとえばこのモデルを教科書をページごとに読む学生としてではなく、広大な図書館の専門研究者として考えてください。7:1の比率により、85%のデータを文脈として“ざっと読み”、タスクに最も関連する15%のデータに高密度のアテンションを適用します。

これに、軽量なマルチトークン予測(MTP)層を組み合わせ、モデルは複数のトークンを同時に予測・生成できるため、エージェント型ワークフローの「思考」フェーズに要する待機時間を大幅に短縮します。Luoによれば、これらの構造的決定は数か月前にすでに行われており、業界がエージェントへと急速に移行した速度に対して「構造的優位」を提供するためでした。

製品とベンチマーク: 第三者による現実検証

Xiaomiの内部データは、モデルが「実世界の」タスクで優れている一方、人工データでのベンチマークではどうかというと、MiMo-V2-ProはGDPval-AAというエージェント的実世界作業タスクのパフォーマンスを測るベンチマークでEloが1426を記録し、GLM-5(1406)やKimi K2.5(1283)といった中国の主要同業者を上回りました。

一方、生のEloでClaude Sonnet 4.6(1633)といった西洋の「最大努力」モデルにはまだ及ばないものの、中国発モデルとしてはこのカテゴリでこれまでで最高のパフォーマンスを示しています。

第三者ベンチマーク機関 Artificial Analysis がこれらの主張を検証し、MiMo-V2-Proをグローバル・インテリジェンス・インデックスの10位に#10で位置づけ、スコア49を付与しました。これはGPT-5.2 Codexと同じ階層であり、Grok 4.20 Betaよりも先行しています。これらの結果は、Xiaomiがエンジニアリング・生産タスクに必要な高レベルの推論を行えるモデルを構築したことを示唆しています。

Artificial Analysisの主要指標は、以前のオープンウェイト版 MiMo-V2-Flash(スコア41)に対して大きな飛躍を示しています:

  • 幻覚率: Proモデルは幻覚率を30%に低下させ、フラッシュ版の48%を大きく上回りました。

  • 全知性指数: +5を記録し、GLM-5 (+2) および Kimi K2.5 (-8) を上回りました。

  • トークン効率性: 全 Intelligence Index を実行するには、MiMo-V2-Pro は出力トークン77Mしか必要とせず、GLM-5(109M)やKimi K2.5(89M)よりはるかに少なく、より簡潔かつ効率的な推論プロセスを示しています。

Xiaomi自身の図表はさらに、同社の「General Agent」および「Coding Agent」能力を強調しています。ClawEvalはエージェント的構築のベンチマークで、モデルは61.5を記録し、Claude Opus 4.6(66.3)に近づく一方、GPT-5.2(50.0)を大きく上回りました。Terminal-Bench 2.0のようなコーディング特化環境では86.7を達成しており、実機の端末環境でコマンドを実行する際の高い信頼性を示唆しています。

企業がMiMo-V2-Proの活用を評価する際のポイント

現代のAI組織における役割、インフラストラクチャからセキュリティまでのペルソナを想定すると、MiMo-V2-Proは「価格-品質」カーブのパラダイムシフトを表しています。

インフラの意思決定者は、知能とコストのパレートフロンティアに対してMiMo-V2-Proを説得力のある候補として見なすでしょう。Artificial Analysisは、彼らのインデックスを実行するのにMiMo-V2-Proは$348しかかからず、GPT-5.2は$2,304、Claude Opus 4.6は$2,486だったと報告しています。

GPUクラスタの管理や調達を担当する組織にとって、西側の現行プレーヤーの約7分の1のコストでグローバルTop-10の知能にアクセスできる能力は、生産規模でのテストを強力に後押しします。

データ意思決定者は1MのコンテキストウィンドウをRAG対応のアーキテクチャに活用でき、企業全体のコードベースやドキュメントセットを1つのプロンプトに投入できるため、小規模なコンテキストモデルで求められる断片化を回避できます。

システム/オーケストレーションの意思決定者は、MiMo-V2-Proをマルチエージェント協調の主要な「脳」として評価すべきです。OpenClawとClaude Codeに最適化されているため、長期計画と正確なツールの使用を継続的な人の介入なしに処理できます。

GDPval-AAでの高いランキングは、企業横断的にAIをスケールするのに必要なワークフローおよびオーケストレーション層に特に適していることを示唆しています。これにより、単純な自動化を超えた複雑で多段階の問題解決を可能にするシステムの構築が可能になります。

ただし、セキュリティの意思決定者は慎重さを要します。モデルをパワフルにしているその“エージェント的”性質―端末の使用やファイルの操作能力―は、プロンプトインジェクションや不正アクセスのリスクを高めます。

幻覚率が低い(30%)ことは防御上の恩恵ですが、公開ウェイトがない(フラッシュ版とは異なる)ため、内部のセキュリティチームは高度に機微な展開に必要とされる「モデルレベル」監査を実施できません。いかなる企業導入にも、堅牢な監視と監査可能性のプロトコルが伴う必要があります。

価格設定、入手可能性、および今後の展望

Xiaomiは開発者市場を支配する価格設定をMiMo-V2-Proに適用しています。コンテキストの使用量に基づく階層制で、頻繁な推論タスクをサポートするキャッシュの料金も競争力のある水準です。

  • MiMo-V2-Pro (最大256K): $1 per 1M input tokens and $3 per 1M output tokens

  • MiMo-V2-Pro (256K-1M): $2 per 1M input tokens and $6 per 1M output tokens

  • Cache read: $0.20 per 1M tokens for the lower tier and $0.40 for the higher tier

  • Cache write: Temporarily free ($0)

世界の他の主要なフロンティアモデルとの比較は以下のとおりです:

モデル

入力

出力

総コスト

出典

Grok 4.1 Fast

$0.20

$0.50

$0.70

xAI

MiniMax M2.7

$0.30

$1.20

$1.50

MiniMax

Gemini 3 Flash

$0.50

$3.00

$3.50

Google

Kimi-K2.5

$0.60

$3.00

$3.60

Moonshot

MiMo-V2-Pro (≤256K)

$1.00

$3.00

$4.00

Xiaomi MiMo

GLM-5-Turbo

$0.96

$3.20

$4.16

OpenRouter

GLM-5

$1.00

$3.20

$4.20

Z.ai

Claude Haiku 4.5

$1.00

$5.00

$6.00

Anthropic

Qwen3-Max

$1.20

$6.00

$7.20

Alibaba Cloud

Gemini 3 Pro

$2.00

$12.00

$14.00

Google

GPT-5.2

$1.75

$14.00

$15.75

OpenAI

GPT-5.4

$2.50

$15.00

$17.50

OpenAI

Claude Sonnet 4.5

$3.00

$15.00

$18.00

Anthropic

Claude Opus 4.6

$5.00

$25.00

$30.00

Anthropic

GPT-5.4 Pro

$30.00

$180.00

$210.00

OpenAI

この攻撃的なポジショニングは、ソフトウェアの次世代を定義する高強度のアプリケーションフローを促進するよう設計されています。現時点でこのモデルは Xiaomi のファーストパーティ API のみで提供されており、画像入力やマルチモーダル入力のサポートはありません—「Omni」モデルの時代における顕著な欠落ですが、Xiaomi はそれらのニーズに対応する MiMo-V2-Omni を別途予告しています。

OpenRouter の「Hunter Alpha」期間は、市場がこの特定の「効率と推論」の組み合わせに高い関心を示していることを証明しました。Fuli Luo の哲学――「あなたが築こうとしている世界への真の愛情」により研究の速度が促進される――は、確立された知能指標において中国で2位、世界で8位にランクされるモデルを生み出しました。

現時点では、Xiaomi はゴールポストを動かしました。もはや「話せるか?」だけでなく「行動できるか?」が問われる時代です。