| https://huggingface.co/unsloth/Mistral-Medium-3.5-128B-GGUF Mistral Medium 3.5 128BMistral Medium 3.5 は、私たちの最初のフラッグシップとなる統合モデルです。これは 256k のコンテキストウィンドウを備えた 128B の高密度モデルで、単一の重みセットで命令追従、推論、コーディングを扱います。Mistral Medium 3.5 は、Le Chat における先代の Mistral Medium 3.1 と Magistral に置き換わります。また、コーディングエージェント Vibe における Devstral 2 も置き換えます。具体的には、これまでにリリースしたモデルと比較して、新しい統合モデルで instruct、推論、コーディングのタスクのパフォーマンスが向上することを期待してください。 推論の実行量はリクエストごとに設定可能なので、同じモデルで短いチャットの返信にも対応できますし、複雑なエージェント的な実行を進めることもできます。可変の画像サイズとアスペクト比に対応するため、視覚エンコーダは最初からスクラッチで学習させました。 詳細は私たちの ブログ をご覧ください。 主な特徴Mistral Medium 3.5 には、以下のアーキテクチャ上の選択が含まれます:
Mistral Medium 3.5 は、以下の能力を提供します:
このモデルは 修正版 MIT ライセンス)のもとで公開します。これは、売上が大きい企業に例外があることを含む、商用および非商用の両方で利用可能なオープンソースライセンスです。 推奨設定
[リンク] [コメント] |
mistralai/Mistral-Medium-3.5-128B(Hugging Face)
Reddit r/LocalLLaMA / 2026/4/30
📰 ニュースTools & Practical UsageModels & Research
要点
- Mistral AIは、Hugging Faceで「Mistral Medium 3.5 128B」を公開し、指示追従・推論・コーディングを単一の統合モデルとしてより高性能にすることを目指しています。
- 同モデルは高密度128Bパラメータで、最大256kのコンテキスト長に対応し、画像を含むマルチモーダル入力(テキスト出力)と視覚理解も可能です。
- 推論の「Reasoning Mode」はリクエストごとに計算量(reasoning effort)を調整でき、短い応答から複雑なエージェント実行まで同一モデルで使い分けできます。
- エージェント機能としてネイティブなfunction callingとJSON出力を備え、システムプロンプトへの追従性も強化されています。
- ライセンスはModified MIT Licenseで、従来のMistral Medium 3.1/Magistral(Le Chat)やDevstral 2(Vibeのコーディングエージェント)に置き換わる位置付けです。




