Vibe におけるリモートエージェント。
Mistral Medium 3.5 によって駆動されています。
複雑なタスク向けの Le Chat の新しい Work モードに加えて、Vibe のリモートコーディングエージェントである Mistral Medium 3.5 をご紹介します。
コーディングエージェントは、これまで主にあなたのラップトップ上で動いていました。今日、私たちはそれらをクラウドへ移します。そこでエージェントはそれぞれが独立して並列に動作し、完了したらあなたに通知します。Mistral Vibe CLI から、または Le Chat から直接起動でき、会話から離れることなくコーディングタスクをオフロードできます。
これを支えているのが、公開プレビューとして提供される Mistral Medium 3.5 です。Mistral Vibe と Le Chat の新しいデフォルトモデルとして、コーディングや生産性業務を長時間にわたって実行できるよう設計されています。Le Chat の新しい Work モード(プレビュー)は、調査、分析、多ツールをまたぐアクションのような複雑で多段階のタスクに対応する強力なエージェントによって、この機能をさらに拡張します。
注目ポイント。
- 指示追従、推論、コーディングを1つの 128B の高密度モデルに統合した、新しいフラッグシップモデルである Mistral Medium 3.5。修正 MIT ライセンスのもと、オープンウェイトとしてリリース。
- 4つのGPUでセルフホスト可能なサイズでありながら、現場レベルで強いパフォーマンス。
- 非同期コーディング向けの Mistral Vibe リモートエージェント:セッションはクラウドで実行され、CLI または Le Chat から起動でき、ローカルの CLI セッションをクラウドへテレポートすることも可能。
- Le Chat で Mistral Vibe のコーディングタスクを開始。セッションは同じリモート実行環境で動き続け、あなたが席を外しても処理は進みます。
- Le Chat の Work モードは、新しいエージェントで動作します。Mistral Medium 3.5 をベースに、ジョブが完了するまで多段階のタスクを処理しながらツールを並列に呼び出します。
Mistral Medium 3.5。
Mistral Medium 3.5 は、公開プレビューで提供される最初のフラッグシップ統合モデルです。128B の高密度モデルで、256k のコンテキストウィンドウを備え、指示追従、推論、コーディングを単一の同一重みセットで扱います。現場での利用において強力な性能を発揮し、セルフホストは最小で4つのGPUで可能です。推論の工数はリクエストごとに設定可能になったため、同じモデルであれば短いチャットへの返信をしたり、複雑なエージェント実行を進めたりできます。また、可変の画像サイズとアスペクト比に対応するため、視覚エンコーダをゼロから学習しました。
Mistral Medium 3.5 は SWE-Bench Verified で 77.6% を達成しており、Devstral 2 や、Qwen3.5 397B A17B のようなモデルを上回っています。さらに、エージェント的な能力も強く、τ³-Telecom で 91.4 というスコアを持っています。




このモデルは、長期的なタスクのために構築されました。複数のツールを確実に呼び出し、後続のコードが消費できる構造化された出力を生成します。Vibe における非同期のクラウドエージェントを実際に実装して提供できるようにしたのが、このモデルです。
Mistral Medium 3.5 は Le Chat のデフォルトモデルになります。さらに、私たちのコーディングエージェントである Vibe CLI において Devstral 2 を置き換えます。
Vibe リモートエージェント。
今日から、コーディングセッションはあなたが席を外している間でも長いタスクを進められます。多くのセッションは並列に実行でき、エージェントが行うあらゆるステップであなたがボトルネックになることがなくなります。
クラウドのエージェントは Mistral Vibe CLI から、または Le Chat から起動できます。実行中は、ファイルの差分、ツール呼び出し、進捗状態、そして随時出てくる質問を通じて、エージェントが何をしているかを確認できます。実行し続けている間に席を離れたいとき、進行中のローカル CLI セッションをクラウドへテレポートして続行できます。セッション履歴、タスク状態、承認も引き継がれます。
返却形式: {"translated": "翻訳されたHTML"}
Vibeは、すでに人間が関与する形で使われているシステムエンジニアリングのチーム間に挟まる存在で、必要なときは必ずヒューマン・イン・ザ・ループになります。コードとプルリクエストにはGitHubを、課題にはLinearとJiraを、インシデントにはSentryを、レポートにはSlackやTeamsのようなアプリを組み込みます。
各コーディングセッションは、広範な編集やインストールを含め、隔離されたサンドボックス内で実行されます。作業が終わると、エージェントはGitHubでプルリクエストを開き、あなたに通知できます。そのため、生成に至ったすべてのキーストロークを追うのではなく、結果をレビューできます。
これは、開発者の時間を奪いながらも判断力は奪わない、高いボリュームで明確に定義された作業に適しています。モジュールのリファクタリング、テストの生成、依存関係のアップグレード、CIの調査、そしてバグ修正などです。
私たちは、WorkflowsをMistral Studioでオーケストレーションし、Mistral VibeをLe Chatに取り込んでいます。最初は社内の自社開発環境のために構築し、その後はエンタープライズのお客様向けに提供しました。現在、この機能は誰でも利用できるようになり、Webからコーディングタスクを起動できるようになっています。さらに、ローカルのターミナルに縛られることなく、開発者は複数を並行して実行できます。
Le Chat上で直接コーディングセッションを開始できるため、チャットで説明したタスクはCLIやWebと同じリモート実行環境で動作し、後から完成したブランチ、または下書きのPRとして返ってきます。
Le Chatでの新しいWorkモード(プレビュー)。
Workモードは、Le Chatにおける複雑なタスク向けの強力な新しいエージェント型モードです。新しいハーネスとMistral Medium 3.5によって実現されています。エージェントが、アシスタントそのものの実行バックエンドになります。そのため、Le Chatは読み書きを行い、複数のツールを同時に使い、あなたが依頼したことを完了するまで、多段階のプロジェクトを進められます。
ここでは、Workモードで今日できることを紹介します。
- クロスツールのワークフロー:1回の実行で、メール、メッセージ、カレンダーを横断して状況をキャッチアップします。参加者の文脈、最新ニュース、ソースから抜粋したトークポイントを使って会議の準備ができます。
- リサーチと統合:Web、社内ドキュメント、接続されたツールにまたがってトピックを深掘りし、その後、構造化されたブリーフやレポートを作成します。書き出しや送信の前に編集できます。
- 受信トレイのトリアージと返信の下書き:チームと顧客の議論からJiraで課題を作成し、Slackでチームに要約を送ります。
セッションは通常のチャット返信よりも長く持続するため、エージェントは多くのターンにまたがって、試行錯誤を通じて、そして完了まで進められます。Workモードでは、コネクタは手動で選ぶのではなくデフォルトで有効になるため、エージェントが正しいアクションを取るために必要な豊富な文脈を、ドキュメント、メールボックス、カレンダー、その他のシステムから引き出せます。
エージェントが行うすべてのアクションは可視化されます。各ツール呼び出しと、その思考の根拠が見えます。Le Chatは、メッセージの送信、ドキュメントの作成、データの修正といったセンシティブな作業を進める前に、あなたの権限に基づいて明示的な承認を求めます。
始めましょう。
Mistral Medium 3.5は現在、Mistral Vibe と Le Chatで利用可能で、Pro、Team、Enterprise プランにおいて、リモートコーディングエージェントとLe Chat上のWorkモードを支えています。
API経由では、入力トークン100万あたり$1.5、出力トークン100万あたり$7.5です。オープンウェイトは、変更されたMITライセンスのもとでHugging Faceにて提供されています。
また、プロトタイピング用途でも利用可能で、build.nvidia.com上のNVIDIA GPUアクセラレートされたエンドポイントでホストされるほか、スケーラブルなコンテナ化推論マイクロサービスとしてNVIDIA NIMでも提供されています。
私たちと一緒に、エージェント型システムの未来を作りましょう。
私たちは、エージェント型システムをさらに前進させるために、研究、エンジニアリング、プロダクトの各領域で採用しています。募集職種をご覧ください。




