Memanto:情報理論に基づく検索による長期ホライズン・エージェント向けの型付きセマンティックメモリ

arXiv cs.AI / 2026/4/27

📰 ニュースDeveloper Stack & InfrastructureModels & Research

要点

  • この論文は、長期ホライズンで複数セッションにわたる自律エージェントの実運用においてメモリが主要なボトルネックになるとし、従来のアプローチはコストの高いハイブリッドなセマンティックグラフ処理に依存しがちだと指摘しています。
  • Memantoは、13個の事前定義されたメモリカテゴリ、衝突の自動解決、時間的バージョニングを備えた「普遍的な型付きセマンティックメモリ層」を提案し、複雑な知識グラフ管理なしで高忠実度のエージェント記憶を実現できる可能性を示します。
  • MemantoはMoorchehの情報理論検索エンジンにより実現され、インデックス不要のセマンティックDBを用いて決定的な検索を可能にし、サブ90ミリ秒の低遅延と取り込み遅延の排除を両立します。
  • LongMemEvalとLoCoMoでのベンチマークでは、89.8%および87.1%の最先端精度を示し、評価対象のハイブリッドグラフ/ベクトル方式を上回ります。また、単一の検索クエリで、取り込みコストも発生しないとしています。
  • 各構成要素の寄与を定量化する段階的なアブレーション研究と、エージェント向けメモリシステムをスケールさせる際の示唆についての議論が含まれています。

Abstract

ステートレスな言語モデル推論から、持続的でマルチセッションな自律エージェントへ移行したことで、生産グレードのエージェント型システムのデプロイにおける主要なアーキテクチャ上のボトルネックとして「メモリ」が明らかになりました。既存の手法の多くは、ハイブリッドなセマンティックグラフ・アーキテクチャに大きく依存しており、取り込みと検索の両方の段階で実質的な計算オーバーヘッドを課します。これらのシステムは一般に、大規模言語モデルを介したエンティティ抽出、大域的なグラフスキーマの維持、そしてマルチクエリの検索パイプラインを必要とします。本論文では、エージェント型AIのためのユニバーサル・メモリ層であるMemantoを紹介します。ここでMemantoは、「高忠実度のエージェント・メモリを実現するには知識グラフの複雑さが必要である」という従来の前提に異議を唱えます。Memantoは、13の事前定義されたメモリカテゴリから成る型付きセマンティック・メモリ・スキーマ、自動化された競合解決メカニズム、そして時間的バージョニングを統合します。これらの構成要素は、Moorchehの情報理論的検索エンジンによって実現されます。Moorchehはインデックス不要のセマンティック・データベースであり、取り込みに伴う遅延を排除しつつ、90ミリ秒未満のレイテンシで決定論的な検索を提供します。LongMemEvalおよびLoCoMoの評価スイートに対する体系的なベンチマークにより、Memantoはそれぞれ89.8パーセント、87.1パーセントという最先端の精度スコアを達成します。これらの結果は、評価されたすべてのハイブリッド・グラフ系およびベクタ系システムを上回りながら、必要なのは単一の検索クエリのみで、取り込みコストを発生させず、さらに運用上の複雑性を大幅に低く維持します。各アーキテクチャ構成要素の寄与を定量化するための5段階の段階的アブレーション研究を提示し、その後に、エージェント型メモリ・システムをスケーラブルにデプロイすることへの含意を議論します。