Gemma 26BでOpenCodeを試す

Reddit r/LocalLLaMA / 2026/4/20

💬 オピニオンDeveloper Stack & InfrastructureTools & Practical Usage

要点

  • ユーザーはllama.cpp上でGemma 26Bを使い、OpenCodeとRoo Codeを約10時間テストした結果、いずれもコーディングの進捗に役立つことが分かったと報告しています。
  • ただしOpenCodeは現状、プロンプト処理が長時間かかることがあり大きな問題になっている一方、Roo Codeは動作が安定しているものの「考える」時間が長くなる(遅い)など別の課題があるようです。
  • ユーザーはOpenCode側の問題はllama.cpp側での修正が難しい可能性があると見ており、他の推論エンジンでも再現するか確認する予定です。
  • 再現する場合はOpenCode側での修正が必要になる可能性が高いと考えており、代替としてRoo Codeのプロンプト改善も検討しています。
  • 投稿には、サンプリングやキャッシュ、巨大なコンテキスト設定などを含む、ユーザーの現在のllama-serverコマンドが掲載されています。
opencode with gemma 26B

昨日、llama.cpp で Gemma 26B を使って OpenCode と Roo Code を約 10 時間テストしていました。

自分のプロジェクトでは進展があり、どちらの解決策も機能しました。ですが:

現状、OpenCode はなんというか壊れていて、そのせいでプロンプト処理が長引くことがよくあります。Roo Code は正しく動きますが、別の問題があります(考えるのに時間がかかる。おそらく OpenCode の方がより良いプロンプトを使っているのだと思います)。

OpenCode の問題は、llama.cpp 側ではどうにもならないように見えます。ほかのエンジンでもテストしてそれを確認する必要があり、そのうえでおそらく OpenCode 側で修正しないといけないでしょう。Roo Code のプロンプトを改善する方が良い選択ではないでしょうか?

現在のコマンド(いろいろ試した後)は次のとおりです:

llama-server -c 200000 -m /mnt/models1/Google/gemma-4-26B-A4B-it-UD-Q8_K_XL.gguf --host 0.0.0.0 --jinja --temp 0.7 --top-p 0.95 --top-k 64 --repeat-penalty 1.15 --cache-ram 20000 --ctx-checkpoints 20 --checkpoint-every-n-tokens 16000 -b 8192 
submitted by /u/jacek2023
[link] [comments]