Qwen 3.6 27B は“怪物”だ

Reddit r/LocalLLaMA / 2026/4/23

💬 オピニオンSignals & Early TrendsTools & Practical UsageModels & Research

要点

  • Redditのユーザーが、VRAM 24GBのローカル「5090 Laptop」でのQwen 3.6 27Bの実世界での強い性能を報告し、自身のツール呼び出しおよびデータサイエンスのベンチマークを通過したと述べている。
  • 同モデルは特にPySpark/Pythonのワークフローやデータ変換のデバッグに有効だとし、その結果クラウドのサブスクリプションをキャンセルするつもりだと語っている。
  • ユーザーは llama.cpp を通じて、量子化した q4_k_m を q4_0 で実行しており、それでもさらなる最適化の可能性を探っている。
  • 投稿では、結果は利用ケースに強く依存し得て、他の職種やタスクには一般化しない可能性がある点を指摘している。
  • 全体として、この記事は比較的控えめなVRAM環境での27Bクラス・モデルのローカル展開に対する、初期の利用者による検証(バリデーション)のシグナルとして機能している。

仕事でもらった5090 Laptopで、VRAMは24GBあります。

出てくるあらゆるモデルをテストしてきましたが、自信を持ってクラウドのサブスクリプションは解約することになると言えます。

ツール呼び出しやデータサイエンスのベンチマークで、私のユースケースに対してモデルが確実に良いことを証明するものはすべて合格しました。

他の職種ではそうではないかもしれませんが、pyspark/pythonとデータ変換のデバッグに関しては、ほぼ完璧です。

llama.cppを使い、q4_k_mをq4_0で使用しています。最適化のための選択肢はいまも検討中です。

投稿日 /u/AverageFormal9076
[リンク] [コメント]