わずか10ビットで俳句からオーパスへ:LLMが巨大な圧縮の伸びを解き放つ
arXiv cs.AI / 2026/4/6
💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本論文では、LLMが生成したテキストを、不可逆(ロスレス)および不可逆(ロッシー)の両設定でどのように圧縮できるかを分析し、「圧縮—計算フロンティア」を特定する。これは、圧縮率を高めるほどより多くの計算が必要になるという関係を示す。
- ロスレス領域では、ドメイン適応したLoRAアダプタを用いることで、基盤モデルのみを使う場合と比べて、LLMベースの算術コーディングの有効性をおおよそ2倍にできる。
- ロッシー圧縮では、著者らは、まずLLMが簡潔な言い換えを生成し、その後に算術コーディングを行うワークフローを提案している。これにより圧縮比は約0.03となり、元の応答をそのまま圧縮する場合に比べて約2倍の改善が得られる。
- 本研究では、「質問応答」(QA)を導入する。これは、強力なモデルに対して小さなモデルがはい/いいえの質問を行うインタラクティブなプロトコルで、回答1回につき1ビットを送信する。これにより、非常に小さな表現サイズで能力ギャップの大部分を回復でき、圧縮比は約0.0006〜0.004に達する。
- 数学・科学・コードの8つのベンチマークにわたって、10個の二値質問により、小さなモデルと大きなモデルの能力差のうち約23%〜72%を標準タスクで回復し、より難しいタスクでは7%〜38%を回復する。さらに、従来のLLM圧縮をサイズ効率の観点で100倍以上上回る。



