文脈的エージェント型メモリは「本当のメモリ」ではなくメモ(検索)である

arXiv cs.AI / 2026/5/1

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、ベクターストア、RAG(検索拡張生成)、スクラッチパッド、コンテキストウィンドウ管理などの「エージェント型メモリ」は、真のメモリではなく検索(ルックアップ)を行っているにすぎないと主張する。
  • ルックアップとメモリを混同すると、能力面で具体的な制約が生じ、長期学習が進まないこと、合成的に新しい課題に対する一般化に“証明可能な天井”があること、そしてコンテキスト長の増加や検索品質の向上だけではこれを突破できないことを論じている。
  • さらに、永続的なメモリは「メモリ・ポイズニング(汚染)」に対して構造的に脆弱であり、注入された内容が将来のセッションにまで波及し得ると警告する。
  • Complementary Learning Systems(神経科学)の理論を手がかりに、生物の知能は(海馬のような)高速な類例記憶と(大脳皮質のような)遅い重みの統合を組み合わせて問題を解決しており、現在のAIエージェントは前者しか実装できていないと位置づける。
  • 制約を形式化し、4つの代替的見解を検討したうえで、共存(co-existence)の提案と、システム構築者・ベンチマーク設計者・メモリ研究コミュニティへの行動喚起で締めくくっている。

Abstract

現在のエージェント型メモリ・システム(ベクトルストア、検索強化生成、スクラッチパッド、コンテキストウィンドウ管理)はメモリを実装していません。実装しているのはルックアップです。私たちは、ルックアップをメモリとして扱うことはカテゴリの誤りであり、エージェント能力、長期学習、セキュリティに対して証明可能な帰結をもたらすと主張します。検索は、保存された事例に対する類似性によって一般化します。一方、重みに基づくメモリは、これまで見たことのない入力に対して抽象的なルールを適用することで一般化します。この2つを混同すると、専門性を育てることなく無期限にメモを蓄積するエージェントが生まれます。また、文脈サイズの増加や検索品質の向上では乗り越えられない、構成的に新規なタスクに対する一般化の上限が証明可能な形で立ちはだかります。さらに、注入されたコンテンツが将来のすべてのセッションにわたって伝播することで、持続的なメモリ汚染に対して構造的に脆弱になります。神経科学における相補的学習システム(Complementary Learning Systems)理論に基づき、生物学的知能は、この問題を、速い海馬での実例保存と、遅い新皮質での重みの固定化(consolidation)を組み合わせることで解決したことを示します。そして、現在のAIエージェントはその前半部分しか実装していません。私たちはこれらの制限を形式化し、4つの代替的見解に対処し、共存案と、システム構築者、ベンチマーク設計者、そしてメモリのコミュニティに向けた行動喚起で締めくくります。