概要: 大規模言語モデルは複雑な課題で目覚ましい性能を達成している一方で、長期的なやり取りにおいて歴史的な経験を活用するためには、記憶システムがまだ必要です。既存のメモリ手法(例:A-Mem、Mem0)は、頻繁に書き換えることでやり取りを整理することに過度に重点を置いていますが、このような要約への強い依存は、本質的な文脈上のニュアンスを薄めたり、重要な検索の特徴を見えにくくしたりするリスクがあります。このギャップを埋めるために、認知科学におけるプルースト現象に着想を得た新しいメモリ枠組みであるAnchorMemを提案します。特定のアンカーがきっかけとなり、全体的な想起が引き起こされる仕組みです。私たちは、検索ユニットを生成文脈から切り離す手法を提案します。AnchorMemは、やり取りの履歴から原子的な事実を抽出して検索アンカーとして用いながら、元の文脈を不変の文脈として保持します。暗黙の物語上の手がかりを明らかにするために、関連する複数の事実の集合を結び付ける高次のイベントリンクを用いる連想イベントグラフを構築し、それらを共有のイベント表現に束ねます。これにより、汎用的なエンティティをブリッジとして用いることに頼らずに、メモリ間の統合を強化します。検索時には、システムはクエリを特定の事実やイベントにアンカーして関連する記憶を見つけますが、関連する生のチャンクとイベントを用いて文脈を再構築します。私たちの手法は、細粒度の検索と、やり取りの文脈整合性との両立を実現します。LoCoMoベンチマークにおいて、3つのクローズドソースおよびオープンソースのモデルに対する実験の結果、AnchorMemはベースラインを大幅に上回ることが示されました。コードは https://github.com/RayNeo-AI-2025/AnchorMem で公開されています。
AnchorMem:大規模言語モデルに記憶を実装するための「結び付けられた文脈」を伴うアンカー付き事実
arXiv cs.CL / 2026/4/21
📰 ニュースDeveloper Stack & InfrastructureIdeas & Deep AnalysisModels & Research
要点
- 本論文は、長期の対話履歴をより適切に活用することを目的に、大規模言語モデル向けの新しいメモリフレームワーク「AnchorMem」を提案している。
- 従来手法が過去のやり取りを要約・書き換えすることに強く依存するのに対し、AnchorMemは検索用のアンカーとして原子的な事実を抽出し、元の対話文脈を不変のまま保持する。
- 関連する事実同士を高次のイベントリンクで結び、汎用的なエンティティを橋渡しに使わない「連想イベントグラフ」を導入し、メモリ間の統合を強化する。
- 検索時には、AnchorMemが特定の事実やイベントにクエリをアンカーして関連メモリを特定し、その後、関連する生のチャンクとイベントから文脈を再構成して物語的なニュアンスを保つ。
- LoCoMoベンチマークで、3つのクローズドソース/オープンソースのモデルに対して実験を行った結果、AnchorMemは既存ベースラインを大きく上回る性能を示し、GitHubでコードも公開されている。




