EchoKV: Efficient KV Cache Compression via Similarity-Based Reconstruction

arXiv cs.CL / 3/25/2026

💬 OpinionSignals & Early TrendsIdeas & Deep AnalysisModels & Research

Key Points

  • EchoKVは、LLMの長文推論でボトルネックになりやすいKVキャッシュのメモリ需要を圧縮しつつ、通常精度と圧縮推論をオンデマンドで切り替えられる柔軟性を目指した手法です。
  • 従来の不可逆な変換による低ランク圧縮とは異なり、EchoKVは部分的に保持したKVから残差成分を軽量ネットワークで再構成し、層間・層内の類似性を活用します。
  • 2段階のファインチューニングにより、7Bモデルでも約1A100 GPU-hour程度の低コスト・高速な学習で適用可能とされています。
  • LongBenchとRULERで、複数の圧縮率において既存手法を一貫して上回りつつ、短文シナリオでは高スループットを維持できたと報告しています。

Abstract

The increasing memory demand of the Key-Value (KV) cache poses a significant bottleneck for Large Language Models (LLMs) in long-context applications. Existing low-rank compression methods often rely on irreversible parameter transformations, sacrificing the flexibility to switch back to full-precision inference when memory is abundant. In this paper, we propose EchoKV, a flexible KV cache compression scheme that enables on-demand transitions between standard and compressed inference. Unlike traditional compression-decompression paradigms, EchoKV utilizes a lightweight network to reconstruct the residual KV components from a partial subset, leveraging intrinsic inter-layer and intra-layer similarities among attention heads. We further introduce a two-stage fine-tuning strategy that allows for rapid, low-cost training (e.g., ~1 A100 GPU-hour for a 7B model). Experimental results on LongBench and RULER demonstrate that EchoKV consistently outperforms existing methods across various compression ratios while maintaining high throughput for short-context scenarios.