D-Mem: LLMエージェント向けデュアルプロセス・メモリシステム

arXiv cs.AI / 2026/3/20

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • D-Memは、軽量なベクトル検索と高忠実度の完全熟考モジュールを組み合わせるLLMエージェント向けのデュアルプロセス型メモリシステムを導入し、長期的な文脈を保持します。
  • 多次元品質ゲーティングポリシーを用いて、迅速な検索と徹底的な熟考の間を動的に切り替え、精度と計算コストのバランスを取ります。
  • 標準の検索ベースメモリにおける情報の損失を、細粒度クエリに対して徹底的なフォールバックを維持することで改善します。
  • LoCoMoとRealTalkでの実験結果は、GPT-4o-miniを用いたLoCoMoでF1スコア53.5を達成し、Mem0ベースラインを上回り、低コストで完全な熟考性能の96.7%を回復しました。
  • 本研究は、メモリ忠実度と計算コストの間で有利なトレードオフを示し、持続的で自己適応型のエージェントの実用的な効率改善を示唆します。

概要: 永続的で自己適応的な自律エージェントの発展に動機づけられ、長期的な推論のための高忠実度メモリアクセスをこれらのシステムに装備することが重要な要件として浮上してきました。しかし、普及している検索ベースのメモリフレームワークは、多くの場合、逐次的な処理パラダイムに従い、会話の記憶をベクトルデータベースへ継続的に抽出・更新し、照会時には意味的検索に依存します。このアプローチは高速ではあるものの、根本的には損失を伴う抽象化に依存しており、文脈上重要な情報を頻繁に見逃し、微細な文脈理解に基づくクエリの解決に苦労します。これに対処するため、D-Mem というデュアル・プロセス・メモリシステムを導入します。日常的なクエリには軽量なベクトル取得を維持しつつ、高忠実度のフォールバックとして網羅的な Full Deliberation モジュールを確立します。精度を犠牲にせず認知的経済性を達成するため、D-Mem はこれら二つの処理を動的に橋渡しする多次元品質ゲーティング方針を採用します。GPT-4o-mini および Qwen3-235B-Instruct を用いた LoCoMo および RealTalk ベンチマークでの実験は、我々のアプローチの有効性を示しています。特に、我々の多次元品質ゲーティング方針は、GPT-4o-mini を用いて LoCoMo で F1 スコア 53.5 を達成します。これは静的取得ベースライン Mem0^A(51.2)を上回り、Full Deliberation のパフォーマンス(55.3)の 96.7% を回復する一方、計算コストは著しく低く抑えられます。