Ollamaからllama.cppへ移行したところ大幅に改善

Reddit r/LocalLLaMA / 2026/4/12

💬 オピニオンDeveloper Stack & InfrastructureSignals & Early TrendsTools & Practical Usage

要点

  • Reddit投稿者は、ローカル実行環境をOllamaからllama.cppへ移行したところ、LLMによる挙動が「match after match」で大きく改善したと報告しています。
  • 改善の観察の中心として、対戦用に生成されるQwen3 Coder系のコード(投稿内では「qwen3 coder generated code」)を用いたロボット同士のバトルの様子が紹介されています。
  • パラメータを変えて結果を比較することで差異が分かる、という実験的なアプローチが述べられています。
  • 実験のためのコード一式としてGitHubリポジトリ(llm-robot-wars)が共有されています。

生き残るために互いに戦う小さなロボットたちです。
試合と試合の間は、qwen3 coder が生成したコードによって、ロボットの1つのクラスだけが駆動されます。そしてそれは、試合ごとに試合の内容が改善されることにつながっています……
https://www.youtube.com/watch?v=FMspkoXseRw

いろいろなパラメータを設定して、それを見ているのは面白いです。
コード:
https://github.com/leonardosalvatore/llm-robot-wars

投稿者: /u/leonardosalvatore
[リンク] [コメント]