Gemma 4 が Qwen 3.5 に勝った(アップデート)—そして Qwen 3.6 27B + MiniMax M2.7 が最強の OpenCode 構成

Reddit r/LocalLLaMA / 2026/4/23

💬 オピニオンDeveloper Stack & InfrastructureSignals & Early TrendsTools & Practical UsageIndustry & Market MovesModels & Research

要点

  • 著者は、Gemma 4 E4B を使って Qwen 3.5 4B を意味ルーティングや分類用途で置き換えられたと報告しており、ルーティングや英語理解では優れている一方、コーディング面の技術力は Qwen 3.5 ほどではない可能性があると述べています。
  • Qwen 3.6 のリリース後、Qwen 3.6(30B/27B)が概ね Gemma 4(26B/31B)や Qwen 3.5(30B/27B)より良いと感じ、現在は Gemma 4 を意味ルーティング専用にしているそうです。
  • 「ブレークスルー」として、MiniMax M2.7 MXFP4 の重みを導入し、巨大な Qwen 3.5(122B Q8 と 397B Q2)を置き換えたところ、バランスの良い“ちょうど良い中間”で大きな問題もなかったとしています。
  • OpenCode を導入し、llama-swap サーバーで Qwen 3.6 30B と MiniMax M2.7 を切り替え(GGML 統合メモリのトリック使用)、計画・編集のワークフローで強い結果が得られたと述べています。
  • この投稿では、クラウド上の有料コーディング支援(例:Claude Code Pro)からの移行を意識し、ローカルでオープンソースモデルを日常的な“主力ドライバー”として使える現実味が増してきた点を強調しています。

みなさんこんにちは!最近、Gemma 4がセマンティック・ルーティングや大量のコーディング関連の作業などで、私にとってQwen 3.5をどのように置き換えてくれたかを投稿しましたが、結局それが私の新しい毎日のメイン機になりました。

その翌日、Qwen 3.6がリリースされて、今週ずっと使っています。最終的な比較はこちら:

ルーティングやその他の分類タスクに関しては、Gemma 4 E4B > Qwen3.5 4B。英語理解はより得意かもしれませんが、コーディングのような超テクニカルな頭脳は同等とはいかないかもしれません。

Qwen 3.6 30B & 27B > Gemma 4 26B と31B(両方)> Qwen 3.5 30B & 27B

具体的には、私の軽量・高速モデルで以下のような変更がありました

Qwen 3.5 30B --> Gemma 4 26B -> Qwen 3.6 30B

Gemma 4 26Bは、3.6が出るまで(今は両方を使い分けています)、私のQwen 3.5 27B(高密度)の使用も一時的に置き換えました。

いま私が使っているGemmaモデルは、セマンティック・ルーティング用のE4Bだけです。

そして、今ここに新たなブレイクスルーが:

最近MiniMax M2.7 MXFP4のウエイトをダウンロードして、Qwen 3.5 122B Q8とQwen3.5 397B Q2を置き換えるのに使ってみました。ここがちょうどいい中間で、何の問題もありませんでした。

私はClaude Code Proのサブスクリプションから離れようとしています。普段は、すべてのプロジェクトでSonnet 4.7を使っています(Opusは使用量を燃やしてしまうので、そもそも使いません)し、Haikuは、バカみたいに簡単なタスク以外ではほとんど触りません。

今朝、OpenCodeをインストールして、llama-swapサーバーをセットアップし、Qwen 3.6 30BとMinimax M2.7(GGMLの統一メモリのトリック付き)を切り替えるようにしました。これがもう最高で、さらにいろいろテストを続けるつもりです。少し手取り足取りが必要ではありますが、それでも素晴らしい結果を出してくれています。

まだエージェントはセットアップしていません。モデルを手動で切り替えているだけですが、Qwen 3.6 30Bはプランニングモードにとても良く、MiniMax M2.7が土台を全部用意してくれると分かりました。そこから編集のためにQwen 3.6 30Bに戻します。

私はQwen 3.6 30BのQ_8 unsloth量子化を使っていますが、open code経由でツール/コマンドの問題が一度も起きていません。Minimax M2.7は、手取り足取りで何をすべきかを自分で言おうとしてきたのですが、優しく思い出してあげたら、その力が自分自身でそれをやれることだったので、その後はうまくいきました。3.5と3.6の間で行われたチューニングが、ツール呼び出しの出来や、いつツールを使うべきかを理解する点で本当に良くしてくれたようです。

オープンソースのモデルでコーディングできるのは、とても良い日ですね!2〜3年前はChatGPTをCodeLlama 34Bに置き換えることで苦労していたのを覚えています。ここまでの進歩は本当にすごいです。

質問があれば気軽にどうぞ!

RTX 3090を2枚 + P40を1枚、DDR4を128GB

submitted by /u/maxwell321
[link] [comments]