Qwen 3.6 35B(A3B、Q4)の使い方のコツ

Reddit r/LocalLLaMA / 2026/4/24

💬 オピニオンSignals & Early TrendsTools & Practical Usage

要点

  • Redditの投稿者が、opencode CLI と LM Studio を使って MacBook Pro(64GB RAM)上で Qwen 3.6 35B(A3B、Q4)を動かす設定を共有し、約55〜70TPS、RAM使用量は約35GBだと報告しています。
  • コードレビューを Qwen に行わせることで完成度の品質は約90%に達するものの、時々1〜2点の見落としがあると述べています。
  • さらにコード品質を高めるための実践的なヒントを求めており、Qwen 3.6 27B に切り替えた方がよいかどうかも相談しています。
  • 全体として、ローカルLLM支援コーディングのワークフロー最適化やトラブルシューティングが主題で、新しいモデルやツールのリリース告知ではありません。

現在、opencode cli を lm studio と一緒に使用しており、qwen 3.6 35b a3b q4 を使っています。mac 5pro 64gb で動かしており、55〜70tpsで、RAMの使用量は約35gbです。

この構成に加えて、codex が qwen による作業のレビューを行うことで、qwen は完了品質でおよそ90%を達成しています。ただし、1〜2個の物を見落としがちです。

コードの品質をより良く改善するためのコツはありますか?それとも何か間違ったことをしているのでしょうか。それとも、新しい qwen 3.6 27b を使ってみるべきですか?

投稿者: /u/skyyyy007
[リンク] [コメント]