要約: 大規模言語モデル(LLM)エージェントは、長時間実行されるワークフローにおいてますます展開されており、多くのターンにわたってユーザーとタスクの状態を保持する必要があります。既存の多くのエージェント記憶システムは、アドホックな読み書きルールを備えた外部データベースのように振る舞い、保持の安定性の欠如、統合の制限、分散要素の影響を受けやすさを招く可能性があります。私たちは CraniMem を提示します。CraniMem は、神経認知的動機づけを受けた、ゲート付きで境界付きの多段階記憶設計で、エージェント的システムのためのものです。CraniMem は、目標条件付きゲーティングと有用性タグ付けを、近期の連続性のための境界付きエピソディックバッファと、耐久的な意味記憶の回復を確保する構造化長期知識グラフと結びつけます。予定された統合ループは、高有用性の痕跡をグラフへ再生すると同時に、低有用性アイテムを剪定し、記憶の成長を抑え、干渉を軽減します。クリーンな入力と注入ノイズの両方の下で評価した長期的なベンチマークでは、CraniMem は通常の RAG および Mem0 ベースラインより堅牢であり、注意散漫時の性能低下も小さく現れます。私たちのコードは https://github.com/PearlMody05/Cranimem で入手可能で、付随の PyPI パッケージは https://pypi.org/project/cranimem にあります。
CraniMem: エージェント系システム向けの頭蓋骨に着想を得たゲーティングおよび境界付きメモリ
arXiv cs.AI / 2026/3/18
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- CraniMem は、長時間にわたるワークフローで状態を保持するため、エージェント系の LLM システム向けのゲーティング機構と境界を備えた多段メモリ設計を導入する。
- ゴール条件付きゲーティングとユーティリティタグ付けを、短期的な継続性を実現する境界付きエピソディックバッファと、耐久性のあるセマンティックリコールを可能にする構造化長期知識グラフと組み合わせる。
- 定期的な統合ループが高ユーティリティな痕跡をグラフへ再投入しつつ、低ユーティリティな項目を剪定して、メモリ成長を抑制し、干渉を低減する。
- 長期的なベンチマークでは、クリーンな入力と注入ノイズを組み合わせた場合、CraniMem は Vanilla RAG および Mem0 のベースラインよりも堅牢であり、注意散漫時の性能低下も小さい。コードは GitHub および PyPI で公開されています。