2026年の偉大なトークン大規模調整(Great Token Reconning)への対応として、私は日常のメイン機としてQwen 3.6を試してみることにしました。導入してまだ1日ほどですが、正直言って、非常に感心しています。
VSCodeのinsiders版をダウンロードして、ローカルモデルを設定する必要がありましたが、— これは超簡単でした。次に、Gemma 4とQwen 3.6(LM Studioで提供されているもの)をいじりながら、データマイニングやWebスクレイピングをたくさん行うアプリを作っていくという、いつもの作業を進めました。
異なる量子化(quant)のもとで2つのモデルの全バージョンを試した結果、はっきりした勝者がいます。UnslothのQwen-3.6-27B-q8_k_xlです。
本当に感動しました!トークン生成が少し遅いことはありますが、実のところ私はGithub Copilotのホスト型モデルを使っていても長い遅延が見えていました。全体的な速度感は、ホスト型とほぼ同じで、たぶんホストより少し遅い程度でした。ですが感心するのは、適切なツール呼び出しをすれば、この小さめで密なモデルでも自分で十分にやりこなせる点です。
明確に言うと、これはOpus 4.6のように「機能レベル」で動くとは思いません。「ねえ、この機能を実装して」って言うだけでは無理です。雰囲気でコーディングする人や非エンジニアは、おそらくこれには耐えられないでしょう。コードの品質やアプローチを改善するために、いくつかの場面ではこちらが方向づける必要がありましたが、機能面ではきちんと当ててきていました。
まず最初にPlan(計画)を必ず回して、細部まで本当に考え抜くなら、そこまで持っていって、問題なく実装できます。システムアーキテクチャの理解がある程度あれば、これはローカルモデルに対して「十分に良い(good enough)」状態をちょうど打ち抜いています。私は一日中せっせと作業していましたが、APIトークンは1つも使っていません。
さて、計算用にもうRTX6000が必要ですね。エージェントたちと計算リソースを奪い合うのはさすがにきついので…
[link] [comments]




