Mistral Small 4Researchを紹介

Mistral AI Blog / 2026/3/17

📰 ニュースModels & Research

要点

  • 記事は、Mistral AI による Mistral Small 4Research のローンチを 2026年3月16日に発表している。
  • このモデルは、Mistral Small ラインナップの研究向けエントリとして位置づけられている。
  • 発表は、ページのレイアウトに添えられたビジュアルとともに、正式な製品発表として掲載されている。
  • 抜粋には、技術的な仕様や入手可能性に関する詳細情報は含まれていない。
このHTMLには表示テキストが含まれていないため、翻訳は不要です。

新登場
Mistral Small 4

高速な 指示型モデル

強力な 推論エンジニア

A マルチモーダルアシスタント

本日、Mistral Small 4 を発表します。 このモデルは Mistral Small ファミリーの次の大きなリリースです。 Mistral Small 4 は、推論用の旗艦モデル Magistral、マルチモーダル用の Pixtral、エージェント型コーディングの Devstral の機能を、1つの汎用モデルに統合した、初の Mistral モデルです。 Small 4 では、ユーザーは高速な指示型モデル、強力な推論エンジン、またはマルチモーダルアシスタントのいずれかを選ぶ必要はありません。1つのモデルがこの3つをすべて提供し、推論の努力を設定可能で、業界トップクラスの効率性を実現します。

Mistral Small 4 は Apache 2.0 ライセンスのもと公開され、オープンでアクセスしやすく、カスタマイズ可能なAIへの取り組みを引き続き推進します。

マルチモーダルで推論を最適化したモデルの新しい標準

Mistral Small 4 は、一般的なチャット、コーディング、エージェント的タスク、そして複雑な推論に最適化されたハイブリッドモデルです。そのアーキテクチャはテキストと画像の入力の両方をサポートし、さまざまな用途に対して柔軟に対応します。Mistral Small 4 により、オープンソースモデルへのコミットメントを改めて示し、創設メンバーとして NVIDIA Nemotron Coalition に参加できることを誇りに思います。AI開発における協力とイノベーションを推進します。

主要なアーキテクチャの詳細

  • Mixture of Experts (MoE): 128 のエキスパート、トークンごとに4名がアクティブ、効率的なスケーリングと専門化を可能にします。

  • 119B 総パラメータ、トークンあたりのアクティブパラメータは 6B(埋め込み層と出力層を含めると 8B)

  • 256k コンテキストウィンドウ、長文の対話と文書分析をサポートします。

  • 設定可能な推論の努力: 高速・低遅延の応答と、深く推論を要する出力を切り替えます。

  • ネイティブなマルチモダリティ: テキストと画像の入力の両方を受け付け、文書解析から視覚分析までのユースケースを解放します。

性能のハイライト

  • エンドツーエンドの完了時間を40%削減(レイテンシ最適化設定)

  • Mistral Small 3 と比較して、1秒あたりのリクエスト数を3倍(スループット最適化設定)

\"内部モデル間の性能比較\"

なぜ Mistral Small 4 か?

統合された機能

Mistral Small 4 は、推論の Magistral、コーディングエージェントの Devstral、そして指示型の Mistral Small の長所を1つのモデルに統合します。チャットアシスタント、研究パートナー、またはコーディングエージェントが必要な場合でも、Small 4 はタスクに適応し、専門モデルを切り替える必要はありません。

要望に応じた推論

新しい reasoning_effort パラメータを使用すると、ユーザーはモデルの挙動を動的に調整できます:

  • reasoning_effort=\\\"none\\\": 毎日のタスクに対して高速で軽量な応答で、以前の Mistral Small 3.2 と同等のチャットスタイルです。
  • reasoning_effort=\\\"high\\\": 複雑な問題に対する深く、段階的な推論で、以前の Magistral モデルと同等の冗長性を提供します。

\"内部モデル間の性能比較

エンタープライズ級の効率性

  • 最小インフラストラクチャ: 4x NVIDIA HGX H100, 2x NVIDIA HGX H200, または 1x NVIDIA DGX B200

  • 推奨設定: 最適なパフォーマンスのために、4x NVIDIA HGX H100、4x NVIDIA HGX H200、または 2x NVIDIA DGX B200。

  • Mistral Small 4 は完全にオープンソースです。専門的なタスクに合わせて微調整するか、汎用用途でそのままデプロイしてください。コミュニティとの協力のおかげで、現在は vLLM、llama.cpp、SGLang、Transformers などでも利用可能です。

  • 高度なオープンソースAIモデルを提供するには、広範な最適化が必要です。NVIDIA との緊密な協力を通じて、vLLM および SGLang のオープンソース両方の推論を最適化し、デプロイ環境全体で効率的で高スループットな提供を実現しています。

LCRLiveCodeBenchAIME 2025
\"LCR\"
\"LiveCodeBench\"
\"AIME

図: 3つのベンチマークにおけるスコアと出力長の比較。上段は精度スコア(高いほど良い)。下段は出力長の平均値(千文字単位)(短いほど良い)。

推論機能を備えたMistral Small 4 は、3つのベンチマーク全てで競争力のあるスコアを達成し、GPT-OSS 120B に匹敵するかそれを上回りつつ、出力を大幅に短くしています。AA LCR では、Mistral Small 4 は 0.72 のスコアを、わずか 1.6K 文字で達成します。一方、Qwen モデルは同等の性能のためには出力を 3.5-4 倍必要です(5.8-6.1K)。LiveCodeBench では、Mistral Small 4 は GPT-OSS 120B を上回りつつ、出力を 20% 減らします。この効率の差は実務上重要です。短い出力は待機時間の短縮、推論コストの削減、より良いユーザー体験を意味します。

For enterprise buyers:

トークンあたりの効率性は、コストとスケーラビリティに直接影響します。応答が長くなるにつれて性能を維持・向上させるモデルは、手動介入の必要性を減らし、運用コストを低減し、レポート作成、カスタマーサポート、意思決定ワークフローのような複雑で高リスクなタスクでも一貫した品質を保証します。ハイブリッド推論モデルは、リソース使用の比例的な増加を伴うことなく精度を最大化することで、より高い価値を提供します。大規模デプロイメントでは、性能とコスト効率の両方が重要となります。

For technical teams and data scientists:

トークンあたりの性能は、モデル選択と最適化の重要な指標です。効率的にスケールするモデルは、長く、よりニュアンスのあるタスク(例:詳細な分析、複数ステップの推論)を、精度を損なうことなく、計算コストを増やさずに展開できるようにします。これにより、品質とリソース配分のトレードオフが減り、より革新的で信頼性の高いAI駆動アプリケーションを実現します。また、モデルの堅牢性が高いことで、微調整と統合が容易になり、頻繁な調整やフォールバックシステムを必要とすることが少なくなります。

想定用途

Mistral Small 4 は以下を想定しています:

  • 開発者: コーディング自動化、コードベース探索、コードエージェント型ワークフロー。

  • 企業: 一般的なチャットアシスタント、文書理解、マルチモーダル分析。

  • 研究者: 数学、研究、複雑な推論タスク。

そのオープンソースライセンスとカスタマイズ可能なアーキテクチャは、微調整と専門化に最適です。

提供状況

  • Mistral API と AI Studio

  • Hugging Face リポジトリ

  • 開発者は NVIDIA accelerated computing で無料で Mistral Small 4 のプロトタイプを作成でき、build.nvidia.com で確認できます。本番展開には、Mistral Small 4 は Day-0 として NVIDIA NIM で提供され、最適化されたコンテナ化推論をそのまま提供します。領域特化の微調整には NVIDIA NeMo を利用できます。

  • お客様向けの技術文書は AI Governance Hub で利用できます

エンタープライズ展開、カスタム微調整、またはオンプレミスのソリューションの場合は、私たちのチームにお問い合わせください

AIの未来はオープンです

指示、推論、およびマルチモーダル機能を統合することにより、Mistral Small 4はAI統合を簡素化し、単一で適応性のあるツールを用いて、より幅広いタスクに取り組むことをユーザーに可能にし、オープンソースAIの利点を現実のユースケースにももたらします。