Qwen 3.6は実際に「雰囲気コーディング」に使える——Claudeよりずっと安い

Reddit r/LocalLLaMA / 2026/4/23

💬 オピニオンSignals & Early TrendsTools & Practical UsageIndustry & Market Moves

要点

  • Redditの投稿者は、ローカルでQwen 3.6を動かし、Claude Codeのような仕組みでQwenエンドポイントに向けることで「雰囲気コーディング」がうまく機能したと報告している。
  • 同氏はデュアルRTX 3090環境で200kコンテキストを用い、35B-A3B(Q4)から27B(Q8)へ切り替えても問題なく動作したと述べており、Unslothのクイックスタート手順以外に大がかりな設定は不要だとしている。
  • 8時間の利用コストについて、クラウドAPIだと$142規模になり得るのに対し、ローカル実行なら電気代は$4未満に抑えられるという試算を挙げ、費用対効果の大きさを強調している。
  • 実際の開発例としては、サーバー資源を監視し、SSEでWebダッシュボードに公開するRustサーバーを挙げ、ローカルモデルでフロント〜バックまで一通り開発したとしている。
  • Codexサブスクはすぐには解約しない可能性があるものの、クラウドのコーディング費用を置き換えられる可能性が示唆されている。
Qwen 3.6 は実際 vibe コーディングに役立ち、Claude よりずっと安い

claude code を起動して、動いている Qwen を指すようにしたところ、まあ vibe コーディングは問題なく完璧に動きました。昨日は Qwen3.6-35B-A3B(Q4)でプロジェクトを始めて、その後今朝 27B(Q8)に切り替えましたが、どちらも正常に動きました!

デュアル 3090 の構成でコンテキスト 200k です。Unsloth Q_8 を使用。特に凝ったセットアップはせず、unsloths のクイックスタートガイドに従って、コンテキストを高めに設定しただけです。

```
#!/bin/bash
llama-server \

-hf unsloth/Qwen3.6-27B-GGUF:Q8_0 \

--alias "unsloth/Qwen3.6-27B" \

--temp 0.6 \

--top-p 0.95 \

--top-k 20 \

--min-p 0.00 \

--ctx-size 200000 \

--port 8001 \

--host 0.0.0.0

```

```
#!/bin/bash
export ANTHROPIC_AUTH_TOKEN="ollama"

export ANTHROPIC_API_KEY=""

export ANTHROPIC_BASE_URL="http://192.168.18.4:8001"

claude $@

```

一番良いのは、Claude Code のコスト見積もりが見えることです。この 8 時間で API 呼び出しだけで 142ドル相当かかっていたところが、代わりに電気代は <$4 で済みました(前提として、ずっと 1kW 消費していたと仮定。実際はそれより低いはずですが、いま電力メーターは接続していません)。そこで、「ローカルは価値がない」という手合いに言いたいのは、この構成を組むのに約4500ドル(NZD)かかったものの、Anthropic の API の代わりにこれを使えば回収できるまでの期間は約260時間です。

もしそれを日中の仕事としてフルに使うなら約30日。24/7で“ダークソフトウェア工場”みたいに回すなら 10日です。たまに夕方にプロジェクトを立ち上げるくらいなら、回収期間は、まあ数か月といったところでしょうか?

何を vibe コードしたの? そこまで大げさなものではありません。Rust でサーバーのリソースを監視するサーバーを立てて、それを Web ダッシュボード(SSE)に公開しました。フルスタック開発をエンドツーエンドで、ローカルモデルだけで全部やりました。操作はたぶん 5 回くらいです。1回はプロンプトを投げるため、残り 4 回は UI/UX の変更やバグレポートのためでした。

まだ codex のサブスクリプションをすぐにはキャンセルしないと思います(llama-server で codex を動かせなかったので?)、でもそれも長くないかもしれません

submitted by /u/sdfgeoff
[link] [comments]