| こんにちは、 エージェント型コーディングのために、Opus 4.5 をローカルで動かして「それっぽい」レベルまで近づけるべく奮闘してきました。経験としては、SWEとして15年です。 まずは1台のスパーク(そう、私は Asus Ascent GX10 をスパークと呼んでいます。名前は違いますが同じものです)で、Qwen 3.5 122B-A10B、Qwen3-Coder-Next、M2.5-REAP などのモデルを試しましたが、何をやっても刺さらず、欲求不満が大きすぎました。いまの時点で 128GB では(私にとって)単純に足りません。 そこで2台目を買いました(1台目は 2800€、2台目は 2500€、さらにケーブル代 60€。合計 5360€)。VAT は事業経費なので差し戻しできるため、VATは含めていません。 最初は、それが「これだ」と思って、Qwen 3.5 397B-A17B を試しました。ですが違いました。悪くはないんですが、信頼できるエージェント型の同僚としては役不足です。「終わった!」と言うのが少し早すぎる感じがありました。 次に MiniMax M2.5 AWQ を試しました。Q4版で 130GB。KV-cache 用の余裕は十分あります。Qwen 3.5 397-A17B より遅い上に、ビジョンもありません。 でも、すごいですね。エージェント型の作業用ワークホースとして。 そして新しいライセンスがついた M2.7 が登場しました(これは明らかに胡散臭い推論プロバイダと戦うためのものです。もちろんそれには賛成です――ただ、私たちと戦うためではない)。M2.5 ほど軽快ではないものの、私が使った中では最良のモデルです。 自作のハーネス(OpenCode のようなインターフェースで、私の用途に合わせてカスタムしています)でセットアップして、こちらが動作を検証する手段を用意してあげる限り、ちゃんと成果を出してくれます(テスト経由でも、playwright-cli を使う形でも)。 計画が素晴らしく、課題を理解し、新機能を開発し、バグを直す……期待するあらゆることをやってくれます。 もちろん完璧ではありませんが、IS(十分)「近くて」、しかも「速い」です。専有の SOTA モデルがそうであるように、時々イラつかせてくることはあります。 ただしそれには、期待値を少し組み直す必要があります。GPT-5.4 のような徹底さや、Opus 4.6 の「保安官」的な態度は期待できません。違うんです。ローカルだけど、ちゃんと WORKS します。 というわけで言います。クラウド提供者は私にとっては終わりです。2x Spark は最高のセットアップで、M2.7 を入れたら、安定して動くエージェントが私のために働いてくれています。 (実際かなり温度が上がります。積み重ねるのは最適ではなく、今は机の上に平置きしています) PS: MiniMax チームに敬意を表さなければなりません。彼らは 229B パラメータで、素晴らしい SWE を詰め込む方法を理解しています。一方で GLM-5.1 は 754B(40B アクティブ)、Kimi K2.5 は 1T(32B アクティブ)。この人たちは計算資源の使い方を分かっているんです。このくらい「小さい」フットプリントで、こんなに賢いエージェントを持てるのは勝ちです。彼らは私たちのためにやっているのではなく、自分たちのためにやっているんです。OpenAI/Anthropic/ZAI/Moonshot ほどの計算量を使わずに、優れた推論を提供できるように。 --- 参考:
[link] [comments] |
2x Asus Ascent GX10 - MiniMax M2.7 AWQ - クラウドの提供者はもう私には不要だ
Reddit r/LocalLLaMA / 2026/4/15
💬 オピニオンDeveloper Stack & InfrastructureSignals & Early TrendsTools & Practical Usage
要点
- Reddit投稿者が、手元のAsus Ascent GX10を2台に増設し、ローカルでOpus級の「エージェント的コーディング」を目指した結果について報告している。
- さまざまなモデル(例:Qwen 3.5 122B/397B、MiniMax M2.5 AWQなど)を試したが、信頼性や要件適合の面で満足できないものが多かった一方で、MiniMax M2.5/2.7は「エージェントワークホース」として有効だったという。
- MiniMax M2.7 AWQは新しいライセンスの影響があるものの、計画・課題理解・機能開発・バグ修正などにおいて、検証(テストやplaywright-cli等)を組み合わせることで成果を出せると述べている。
- ローカル運用の現実として、GPT-5.4/Opus 4.6のような徹底さは期待できないが、「動いて仕事になる」水準に到達したため、クラウド提供に依存しなくなった、と結論づけている。
- 構成面では熱設計の課題に触れ、2台を積むより机上に平置きする方がよいとの具体的な観察も示されている。




