huge improvement after moving from ollama to llama.cpp

Reddit r/LocalLLaMA / 4/12/2026

💬 OpinionDeveloper Stack & InfrastructureSignals & Early TrendsTools & Practical Usage

Key Points

  • Reddit投稿者は、ローカル実行環境をOllamaからllama.cppへ移行したところ、LLMによる挙動が「match after match」で大きく改善したと報告しています。
  • 改善の観察の中心として、対戦用に生成されるQwen3 Coder系のコード(投稿内では「qwen3 coder generated code」)を用いたロボット同士のバトルの様子が紹介されています。
  • パラメータを変えて結果を比較することで差異が分かる、という実験的なアプローチが述べられています。
  • 実験のためのコード一式としてGitHubリポジトリ(llm-robot-wars)が共有されています。

Those are tiny robots fighting each other to survive.
Between matches only one class of robots are driven by qwen3 coder generated code and it does improve match after match...
https://www.youtube.com/watch?v=FMspkoXseRw

Is funny to set different parameters and watch it.
Code:
https://github.com/leonardosalvatore/llm-robot-wars

submitted by /u/leonardosalvatore
[link] [comments]