Qwen3.6 35B-a3bから中途でQwen3.6 27Bに切り替えたら、コーディングが明らかに良くなった

Reddit r/LocalLLaMA / 2026/4/27

💬 オピニオンSignals & Early TrendsTools & Practical UsageModels & Research

要点

  • LM Studio上でローカルのコーディング用モデルを使っていた開発者が、VRAM制約のためQwen3.6 35B-A3B(GGUF IQ4_XS)からQwen3.6 27B(GGUF IQ3_M)へプロジェクト途中で切り替えました。
  • その結果、HTMLタワーディフェンスのような複雑なコーディング課題では27BのIQ3_Mのほうが明らかに良い動作になり、35BのIQ4_XSでは見つけられなかった難しいバグまで発見できたと報告しています。
  • 速度面では、35B IQ4_XSが約50〜60 tokens/secを出しつつプロンプト処理がときどき急に遅くなるのに対し、27B IQ3_Mは約40 tokens/sec前後で安定していたとのことです。
  • 27Bが(MoEの35Bより)圧縮に強い可能性があるのか、また16GB VRAM環境でのQwen3.6 35Bと27Bの比較体験を他者に尋ねています。
  • さらに著者は、自己完結型のHTMLゲームとして動作するデモも共有しており、セーブ/ロードは必要に応じてファイルをダウンロードしてローカルで開くと動くと補足しています。
Qwen3.6 35b-a3bからQwen3.6 27b ミドルの切り替え。ミドルコーディングが明らかに良くなった!

少し背景を。追加のウェイポイントを置くことで経路を変更できる、簡単なHTMLタワーディフェンスのゲームをコードを書いていました。

構成:RAM 32GB、VRAM 16GB、5070 Ti。LM StudioでOpenCodeを使い、AesSedai/Qwen3.6-35B-A3B-GGUFのIQ4_XSを使用しています。ワンショットの雰囲気でコーディングするプロンプトから卒業しました。

このゲームの仕様はLM Studioではできないくらい複雑だったので、OpenCodeを試しました。プロジェクトは順調に進んでいて、27bが登場したときにQwen3.6 35bがいい感じに作業を進めてくれていたのですが、自然に試さざるを得ませんでした。問題は、VRAMの都合でQ4モデルを一切使えなかったので、mradermacher/Qwen3.6-27B-i1-GGUFのIQ3_Mに落としたことです。

IQ3_Mだと圧縮が強すぎるのではという心配はありましたが、うまくいって、しかもQwen3.6 35b-a3bのIQ4_XS版では見つけられなかった難しいバグを見つけられるまででした。密なモデルはMoEモデルよりも圧縮に強いと言われています。これが理由なのでしょうか?Qwen3.6の35b-a3b版と27b版で、他の人はどんな体験をしていますか?

LM Studioを使うと、

Qwen3.6 35b-a3b(AesSedai/Qwen3.6-35B-A3B-GGUF IQ4_XS)で50〜60トークン/秒は出ましたが、プロンプト処理がときどきかなり遅くなります。

mradermacher/Qwen3.6-27B-i1-GGUFのIQ3_Mでは、40ちょっとトークン/秒でしたが、速度は全体的に良好でした。

VRAM 16GB環境で、この2つのモデルの体験を教えてください。27bのIQ3モデルで実際の作業をしている人はいますか?

あ、Waypoint Tower Defenseゲームは完成していて、htmlbinで遊べます。ただし保存/読み込みはサイト上ではうまく動かないようです。ファイルをダウンロードしてブラウザで開けば、問題なく動きます。これは単体の自己完結型HTMLゲームです。マインスイーパーみたいにするつもりだったのですが、タワーディフェンス版です。

submitted by /u/LocalAI_Amateur
[link] [comments]