GAM: LLMエージェントのための階層型グラフベース・エージェント的メモリ

arXiv cs.AI / 2026/4/15

📰 ニュースSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、メモリのエンコーディングとコンソリデーション(固定化)を分離することで、LLMエージェントの長期的な一貫性を向上させることを目的とした、階層型グラフベースのエージェント的メモリフレームワークGAMを提案する。
  • GAMは、イベント進行グラフによって進行中の対話をデカップリング(切り離し)し、意味の変化が生じた場合にのみトピック連想ネットワークへ統合することで、過渡的なノイズによる干渉を低減することを狙う。
  • 長い対話ホライズンにおいて文脈の精度を高めるために、グラフに導かれたマルチファクタのリトリーバル(検索)戦略を追加する。
  • LoCoMoおよびLongDialQAでの実験では、推論の精度と効率の両面で、最先端のベースラインに対して一貫した改善が報告されている。

要旨: コヒーレントな長期的相互作用を維持するために、大規模言語モデル(LLM)エージェントは、新たな情報を獲得することと、過去の知識を保持することとの間の緊張関係を切り抜ける必要がある。現在の統一的なストリームベースのメモリシステムは、コンテキストの更新を容易にする一方で、過渡的なノイズによる干渉に対して脆弱である。対照的に、離散的で構造化されたメモリアーキテクチャは、知識保持に対して頑健であるが、しばしば進化する物語への適応が難しい。そこで本研究では、記憶のエンコーディングと統合(consolidation)を明示的に切り離すことで、急速なコンテキスト認識と安定した知識保持の間の衝突を効果的に解決する、階層型グラフベースのAgentic MemoryフレームワークであるGAMを提案する。進行中の対話をイベント進行グラフとして分離し、意味的な変化が生じた場合にのみそれをトピック連想ネットワークへ統合することで、我々の手法は干渉を最小化しつつ、長期的な一貫性を保つ。さらに、コンテキストの精度を高めるために、グラフに導かれた多因子の検索戦略も導入する。LoCoMoおよびLongDialQAに関する実験では、本手法が推論の正確性と効率の両方において、最先端のベースラインを一貫して上回ることが示された。