StructMem:LLMの長期行動のための構造化メモリ

arXiv cs.CL / 2026/4/24

📰 ニュースDeveloper Stack & InfrastructureModels & Research

要点

  • この論文では、長期的な対話エージェント向けに、孤立した事実ではなく出来事間の関係を捉えるための「StructMem」という構造化された階層メモリ枠組みを提案している。
  • 既存手法のトレードオフ(フラットなメモリは効率的だが関係構造を表現できず、グラフ型メモリは構造推論を可能にする一方で構築コストが高く脆い)に対処している。
  • StructMemは、出来事レベルのバインディングを保持し、出来事をまたぐ接続を誘導し、二つの視点を時間的にアンカーし、定期的な意味統合を行うことで時間推論を改善する。
  • LoCoMoでの実験では、時間推論とマルチホップ質問応答の性能向上に加え、従来のメモリ方式よりトークン使用量・API呼び出し回数・実行時間を大幅に削減できることが示されている。
  • https://github.com/zjunlp/LightMem にオープンソースのリポジトリも提供されており、実装検証や発展に向けた実用性が示唆される。

Abstract

長期的な対話型エージェントには、孤立した事実だけでなく出来事の間の関係を捉えるメモリシステムが必要であり、時間的推論やマルチホップ質問応答を支える。現在のアプローチには根本的なトレードオフがある。すなわち、フラットなメモリは効率的だが関係構造をモデル化できない。一方、グラフベースのメモリは構造化された推論を可能にするが、構築が高コストで脆弱であるという代償が必要となる。これらの課題に対処するため、我々は \textbf{StructMem} を提案する。これは、イベントレベルの結び付きを保持し、イベント間の相互接続を誘導する、構造化された情報を付加した階層メモリの枠組みである。時間に基づいて二つの視点をアンカーし、定期的な意味の統合を行うことで、StructMem は \texttt{LoCoMo} において時間的推論とマルチホップ性能を改善し、同時に、従来のメモリシステムと比べてトークン使用量、API呼び出し回数、実行時間を大幅に削減する。詳細は https://github.com/zjunlp/LightMem を参照。