Experience Compression Spectrum:LLMエージェントにおける記憶・スキル・ルールの統合

arXiv cs.AI / 2026/4/20

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • この論文は、LLMエージェントが長期・複数セッションにわたるタスクを実行する際、蓄積された経験を効率的に管理することが記憶システム/スキル発見の双方にとって主要なボトルネックになると主張します。
  • 1,136件の参考文献(22本の主要論文)を引用分析した結果、記憶寄りとスキル寄りの研究コミュニティ間の相互引用率が1%未満と低く、統合的な見取り図の必要性が示されます。
  • 著者らは「Experience Compression Spectrum」を提案し、エージェントの記憶・スキル・ルールを、圧縮率が増える1本の軸上に配置することで、コンテキスト消費・探索(検索)遅延・計算コストを直接削減できると述べます。
  • 20以上のシステムをスペクトラムに対応づけたところ、各システムは固定の圧縮レベルで動作し、レベルをまたいだ適応的な圧縮をサポートしないため、「missing diagonal(欠けた対角線)」が存在すると論じています。
  • さらに、専門化だけではコミュニティ間で解を共有できないこと、評価が圧縮レベルと密に結び付いていること、そして知識ライフサイクル管理がほとんど未着手であることを指摘します。

要旨: LLMエージェントが長いホライズンの複数セッション展開へとスケールするにつれて、蓄積された経験を効率的に管理することが重要なボトルネックになります。エージェントのメモリシステムとエージェントのスキル発見はいずれも、この課題に対処しています――相互作用の記録(トレース)から再利用可能な知識を抽出することです。しかし、22本の主要論文にまたがる1,136件の参照文献に対する引用分析では、コミュニティ間の引用率が1%未満であることが明らかになりました。そこで本研究では、
\emph{Experience Compression Spectrum(経験圧縮スペクトラム)}を提案します。これは、メモリ、スキル、ルールを、圧縮が増大する単一の軸上の点として位置付ける統一的枠組みです(エピソード型メモリでは5--20\times、手続き型スキルでは50--500\times、宣言的ルールでは1,000\times+)。これにより、コンテキスト消費、検索の遅延、計算オーバーヘッドを直接的に削減します。このスペクトラム上に20以上のシステムを対応付けると、すべてのシステムが固定されたあらかじめ決められた圧縮レベルで動作しており、適応的なクロスレベル圧縮(複数レベルにまたがる圧縮)をサポートするものがないことが分かります。このギャップを
t\emph{missing diagonal(欠けた対角線)}と呼びます。さらに、専門化だけでは不十分であることを示します――両コミュニティはそれぞれ独立に、解を共有せずに共通のサブ問題を解いていること、評価手法が圧縮レベルと強く結び付いていること、特異性の代償として圧縮に応じて転移可能性が高まること、そして知識のライフサイクル管理がほとんど未対応のままであることを示します。スケーラブルでフルスペクトラムなエージェント学習システムに向けた、未解決課題と設計原理を明確に述べます。