Tool for Creating Your Own High-Quality GGUF Quants (Docs + Web UI)

Reddit r/LocalLLaMA / 4/11/2026

💬 OpinionDeveloper Stack & InfrastructureTools & Practical UsageModels & Research

Key Points

  • 提供された「GGUF-Tool-Suite」は、GGUFクオンツ作成の手順をドキュメントとWeb UI/CLIで簡略化し、任意サイズのGGUFを生成・ベンチマークできることを目指している。
  • ツールはik_llama.cppおよびllama.cppの両方で動作し、Web UI(quant_assign)またはCLIから同様の処理を行える設計になっている。
  • 作成したGGUFの品質は、投稿者のテストでは他の主要リリースより高品質になりやすく、とくにik_llama.cppのレシピ利用時に効果が大きいとされている。
  • 今後はKimi-K2.5とGLM-5.1のベンチマーク対応が予定されているが、現時点でも複数のモデルで利用可能だと説明されている。

For anyone interested in building their own GGUF quants, I’ve put together the GGUF-Tool-Suite docs and a simple web UI to make the process easier.

The goal is to let anyone benchmark and automatically produce GGUFs of any size for ik_llama.cpp and llama.cpp, either through the web UI or the CLI.

The tool suite has already been adopted by a few passionate users looking for better GGUF quality and more flexibility to fit hardware optimally. It has also been validated to produce higher-quality GGUFs than other popular releases in my testing, especially when using ik_llama.cpp recipes.

Kimi-K2.5 and GLM-5.1 benchmarking is coming soon, but the tool already works with quite a few models that have already been benchmarked.

submitted by /u/Thireus
[link] [comments]