広告

最近のKVローテーションPRで、AIME25上の既存Q8 KV量子化のタンク(性能)が低下していることが判明したが、ローテーションによって大部分を回復できる

Reddit r/LocalLLaMA / 2026/3/30

💬 オピニオンDeveloper Stack & InfrastructureSignals & Early TrendsTools & Practical Usage

要点

  • llama.cpp における最近の「KVローテーション」PRで、既存の Q8 KV 量子化が AIME25 ベンチマークで性能を大きく低下させ得ることが判明した。
  • 報告されている性能低下は、従来の Q8 KV 量子化セットアップのみに頼るよりも、KVローテーション技術を適用することで概ね回復可能である。
  • 議論では、すでに Q8 KV 量子化モデルを動かしているユーザーにとって価値がある可能性が示唆されているが、少なくとも1人のコメント投稿者は当面 FP16 のままでいる予定だ。
  • 重要なポイントは主に、量子化されたKVキャッシュ戦略を使用する際のローカルLLMの推論品質/ベンチマーク結果に影響し、量子化ワークフローの調整が必要になる可能性を示している。
  • 全体としてスレッドは、メモリ/計算効率(Q8)と精度(ベンチマーク性能)の実用的なトレードオフを改善できる最適化/技術を浮き彫りにしている。
In the recent kv rotation PR it was found that the existing q8 kv quants tank performance on AIME25, but can be recovered mostly with rotation

そのコメント: https://github.com/ggml-org/llama.cpp/pull/21038#issuecomment-4150413357

これは既存のq8ユーザーにとってとても良いかもしれないと思います。個人的には、当面はfp16を使い続けるつもりです。

投稿者 /u/Betadoggo_
[リンク] [コメント]

広告