みなさんこんにちは!最近、Gemma 4がセマンティック・ルーティングや大量のコーディング関連の作業などで、私にとってQwen 3.5をどのように置き換えてくれたかを投稿しましたが、結局それが私の新しい毎日のメイン機になりました。
その翌日、Qwen 3.6がリリースされて、今週ずっと使っています。最終的な比較はこちら:
ルーティングやその他の分類タスクに関しては、Gemma 4 E4B > Qwen3.5 4B。英語理解はより得意かもしれませんが、コーディングのような超テクニカルな頭脳は同等とはいかないかもしれません。
Qwen 3.6 30B & 27B > Gemma 4 26B と31B(両方)> Qwen 3.5 30B & 27B
具体的には、私の軽量・高速モデルで以下のような変更がありました
Qwen 3.5 30B --> Gemma 4 26B -> Qwen 3.6 30B
Gemma 4 26Bは、3.6が出るまで(今は両方を使い分けています)、私のQwen 3.5 27B(高密度)の使用も一時的に置き換えました。
いま私が使っているGemmaモデルは、セマンティック・ルーティング用のE4Bだけです。
そして、今ここに新たなブレイクスルーが:
最近MiniMax M2.7 MXFP4のウエイトをダウンロードして、Qwen 3.5 122B Q8とQwen3.5 397B Q2を置き換えるのに使ってみました。ここがちょうどいい中間で、何の問題もありませんでした。
私はClaude Code Proのサブスクリプションから離れようとしています。普段は、すべてのプロジェクトでSonnet 4.7を使っています(Opusは使用量を燃やしてしまうので、そもそも使いません)し、Haikuは、バカみたいに簡単なタスク以外ではほとんど触りません。
今朝、OpenCodeをインストールして、llama-swapサーバーをセットアップし、Qwen 3.6 30BとMinimax M2.7(GGMLの統一メモリのトリック付き)を切り替えるようにしました。これがもう最高で、さらにいろいろテストを続けるつもりです。少し手取り足取りが必要ではありますが、それでも素晴らしい結果を出してくれています。
まだエージェントはセットアップしていません。モデルを手動で切り替えているだけですが、Qwen 3.6 30Bはプランニングモードにとても良く、MiniMax M2.7が土台を全部用意してくれると分かりました。そこから編集のためにQwen 3.6 30Bに戻します。
私はQwen 3.6 30BのQ_8 unsloth量子化を使っていますが、open code経由でツール/コマンドの問題が一度も起きていません。Minimax M2.7は、手取り足取りで何をすべきかを自分で言おうとしてきたのですが、優しく思い出してあげたら、その力が自分自身でそれをやれることだったので、その後はうまくいきました。3.5と3.6の間で行われたチューニングが、ツール呼び出しの出来や、いつツールを使うべきかを理解する点で本当に良くしてくれたようです。
オープンソースのモデルでコーディングできるのは、とても良い日ですね!2〜3年前はChatGPTをCodeLlama 34Bに置き換えることで苦労していたのを覚えています。ここまでの進歩は本当にすごいです。
質問があれば気軽にどうぞ!
RTX 3090を2枚 + P40を1枚、DDR4を128GB
[link] [comments]




