OpenCodeをセルフホストLLMで試した結果:Qwen 3.5/3.6、Gemma 4、Nemotron 3、GLM-4.7 Flash(v2)

Reddit r/LocalLLaMA / 2026/4/22

💬 オピニオンSignals & Early TrendsTools & Practical UsageModels & Research

要点

  • 記事では、OpenCodeのワークフローについて複数のセルフホストLLMを対象に、簡単なコーディング課題と複雑なWebサイト移行マッピング課題の2種類の実地ベンチマークを報告している。
  • 対象モデルはQwen 3.5/3.6、Gemma 4、Nemotron 3、GLM-4.7 Flashで、文脈長(コンテキスト長)はタスクやモデルにより概ね25k〜50kの範囲で設定された。
  • RTX 4080(16GB VRAM)上でllama.cppを用い、主にデフォルトのメモリ/レイヤー設定で動作させたところ、多くのセルフホストモデルは想定より遅い一方、パラメータ調整で速度改善の余地があるとしている。
  • v2では追加検証としてQwen 3.6 35Bの量子化バリアントが期待より悪い結果になった一方、Qwen 3 Coder Nextは非常に良好で、Qwen 3.5 27Bは落胆する結果だったと述べている。
  • 著者の結論としては、Qwen 3.5 27Bは手元の環境に適しており、Gemma 4も好成績だが、Gemma 4 31Bのような大型版は16GB VRAMでのセルフホスティングでは現実的でない可能性がある。
Tested how OpenCode Works with SelfHosted LLMS: Qwen 3.5, 3.6, Gemma 4, Nemotron 3, GLM-4.7 Flash - v2

OpenCodeを使って各LLMに対して2つのテストを行い、基本的な準備状況と使いやすさを確認しました:

- GolangでIndexNow CLIを作成(簡単なタスク)

- SiteStructure Strategyに従ってWebサイトのMigration Mapを作成。(複雑なタスク)

Qwen 3.5、& 3.6、Gemma 4、Nemotron 3、GLM-4.7 Flash、そしていくつかの他のLLMをテストしました。

使用したコンテキストサイズ:25k-50k(タスクやモデルによって異なります)。

結果は以下の表にあります。正確なquant名のほとんどは速度テストの表に記載されています。

お役に立てれば幸いです。

---

v2では、次のテストを追加しました:

- Qwen 3.6 35b q3 と q4 => 結果は想定より悪かったです

- Qwen 3 Coder Next => とても良い結果

- そして Qwen 3.5 27b q3 Bartowsky => 残念でした

https://preview.redd.it/akly3cx1sowg1.png?width=687&format=png&auto=webp&s=5eb5f4868d87b5c78924916e9078b6f63e1d6d82

これらのセルフホストLLMの多くの速度は、RTX 4080(16GB VRAM)上では以下でした(各モデルがどれくらい速い/遅いかの目安として)。

推奨のtemp、top-p、その他のパラメータで、メモリとレイヤーのパラメータはデフォルトを使用しました。これらを微調整すれば、速度が少し改善するかもしれません。あるいは「少し」以上に :)

https://preview.redd.it/uf1gszu8qowg1.png?width=661&format=png&auto=webp&s=7a0c9b6167ba582ad885640819754e46da28f735

今回のテスト反復からの所感:

- Qwen 3.5 27bは、かなり良いLLM(Unthloth's quants)で、私の環境のハードウェアにちょうど合っています。

- Qwen3 Coder Nextは、Qwen 3.5と3.6 35bよりも優れています。

- Qwen 3.5と3.6 35bは良いのですが、私のタスクには十分ではありません。

- Gemma 4の26bと31bの両方も非常に良い結果でしたが、16GB VRAMでセルフホストする場合は31b版が大きすぎます。

---

各テストにおける、各LLMの挙動の詳細はこちら:

https://www.glukhov.org/ai-devtools/opencode/llms-comparison/

submitted by /u/rosaccord
[link] [comments]