Qwen3.6。「これが答えだ」

Reddit r/LocalLLaMA / 2026/4/17

💬 オピニオンDeveloper Stack & InfrastructureSignals & Early TrendsTools & Practical Usage

要点

  • Redditの投稿者が、MCPで導入したツールを使ってQwen 3.6にタワーディフェンスゲームの制作とテストを行わせたところ、実際に開発フローを実行できていると報告しています。
  • 投稿では「アップグレード」機能のテスト中にキャンバスのレンダリング不具合を検知し、自分の実行の中で修正まで行ったと説明されています。
  • さらに、ウェーブ完了に関するバグをモデルが見つけて解消し、その後もデバッグ/テストのステップを継続していると主張しています。
  • ポストには、特定のGGUFモデルや各種実行パラメータを使ってQwen 3.6を起動するllama.cppのコマンド/設定が載っており、ローカル/セルフホスト環境での運用例が示されています。
  • 最後に編集として、open code側に27Bモデルのエイリアスが残っていたこと、そしてローカルで素早く動作確認してすぐに投稿したほどの高揚感が述べられています。
Qwen3.6. This is it.

https://preview.redd.it/nxn2rr15vqvg1.png?width=1920&format=png&auto=webp&s=8ec85d90b1286a6e7813c91a0a83c748e94ca849

タワーディフェンスゲームを作るようにタスクを与えました。インストール済みのmcpのスクリーンショットを使って、ビルドができていることを確認してください。

なんてことだ、実際にそれをやってる。今はアップグレード機能をテスト中で、
どこかの時点でキャンバスがレンダリングされていないことを指摘して、見つけて修正しました。
波(wave)の完了に関する自分自身のバグも指摘して、実際にそれをやっています…

もう驚きすぎて…
これに続いているQwen Coderが何ができるのか想像できません。
なんて時代にいるんだ。

llama-server -m "{PATH_TO_MODEL}\Qwen3.6\Qwen3.6-35B-A3B-UD-Q6_K_XL.gguf" --mmproj "{PATH_TO_MODEL}\Qwen3.6\mmproj-F16.gguf" --chat-template-file "{PATH_TO_MODEL}\chat_template\chat_template.jinja" -a "Qwen3.5-27B" --cpu-moe -c 120384 --host 0.0.0.0 --port 8084 --reasoning-budget -1 --top-k 20 --top-p 0.95 --min-p 0 --repeat-penalty 1.0 --presence-penalty 1.5 -fa on --temp 0.7 --no-mmap --no-mmproj-offload --ctx-checkpoints 5" 

編集:open codeのほうで、まだ私の27Bモデルのエイリアスが残っていることを知らされました。
私は面倒くさがりで、モデル名すら調べて直していません。これが私の llama.cpp サーバーの設定です。
テストしてすぐここに来たので、めちゃくちゃワクワクしています。

によって投稿されました /u/Local-Cardiologist-5
[リンク] [コメント]