広告

LLMエージェントのための多層メモリアーキテクチャ:長期コンテキスト保持の実験的評価

arXiv cs.CV / 2026/4/1

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、対話履歴を「作業層」「エピソード層」「セマンティック層」に分離するマルチレイヤ・メモリフレームワークを提案し、長いホライズンにおける意味ドリフトや、セッション間での保持の不安定さに対処する。
  • アダプティブなリトリーバル(検索)ゲーティングと保持の正則化を用いて、コンテキストの増加を抑えつつ計算効率を維持し、セッション間のメモリを安定に保つ。
  • LOCOMO、LOCCO、LoCoMoでの実験により、46.85%の成功率および全体のF1が0.618(多段推論のF1が0.594)を含む、長期対話と推論の成果の向上が報告される。
  • このアプローチは、6期間の保持を56.90%に改善し、誤ったメモリ率を5.1%に低減し、コンテキスト使用量を58.40%に抑えることで、制約されたコンテキスト予算下でもメモリ品質がより良好であることを示している。

概要: 長期対話システムは、意味のドリフト(semanticdrift)と、長時間セッションにわたる不安定なメモリ保持に悩まされる。本論文では、対話履歴をワーキング層、エピソード層、セマンティック層に分解し、適応的な検索ゲーティングと保持正則化を用いるマルチレイヤ・メモリ・フレームワークを提案する。このアーキテクチャは、セッション間のドリフトを制御しつつ、文脈の増大を上限付きに保ち、計算効率も維持する。LOCOMO、LOCCO、LoCoMo に対する実験により、性能の向上が示され、46.85の成功率、全体F1が0.618、マルチホップF1が0.594を達成した。さらに、6期間保持率は56.90%である一方、誤った記憶率を5.1%に抑え、文脈使用率を58.40%まで削減した。結果は、制約された文脈予算のもとで、長期保持と推論の安定性が強化されることを裏づける。

広告