HeLa-Mem:ヘッブ学習と連想記憶によるLLMエージェントの長期記憶アーキテクチャ

arXiv cs.CL / 2026/4/21

📰 ニュースDeveloper Stack & InfrastructureModels & Research

要点

  • 本論文は、LLMエージェントが長期的な整合性を維持するのが難しいのは、固定長のコンテキスト窓や埋め込みベースの類似検索が、人間の記憶にある連想的な構造を捉えにくいためだと指摘しています。
  • HeLa-Memはヘッブ学習に基づく生物模倣のメモリアーキテクチャを提案し、記憶を「連合」「固定化」「拡散的活性化」に類似したダイナミクスで制御される動的グラフとして表現します。
  • 設計は二層で、(1)共起活性パターンから更新されるエピソード記憶グラフと、(2)反省的エージェントが密な記憶ハブから構造化知識を抽出する「Hebbian Distillation」によって構築される意味記憶ストアを用います。
  • LoCoMoでの実験では、4つの質問カテゴリで高い性能を示し、かつコンテキストトークンを大幅に少なくできることが報告されており、コードはGitHubで公開されています。

Abstract

長期記憶は、大規模言語モデル(LLM)エージェントにとって重要な課題です。固定長のコンテキストウィンドウでは、長時間にわたる相互作用にわたって一貫性を保持できないためです。既存のメモリシステムは、会話履歴を非構造化の埋め込みベクトルとして表現し、意味的類似性によって情報を検索します。しかしこのパラダイムでは、人間の記憶に見られる連想構造、すなわち関連する経験が反復的な同時活性化を通じて相互の結びつきを次第に強めていく仕組みを捉えられていません。認知神経科学に触発され、私たちは生物学的記憶の中核となる3つのメカニズム、すなわち連想、固定化(consolidation)、および拡散的活性化(spreading activation)を特定します。これらは現在の研究ではほとんど見られません。 このギャップを埋めるために、ヘビアン学習ダイナミクスに基づくバイオ模倣型メモリアーキテクチャ「HeLa-Mem」を提案します。HeLa-Memは、二層の構成を採用しています:(1) 同時活性化パターンによって進化するエピソード記憶グラフ、そして (2) ヘビアン・ディスティレーションによって構築される意味記憶ストアです。ここではReflective Agentが、密に結合したメモリのハブを同定し、それらを構造化され再利用可能な意味知識へと蒸留します。この二経路設計は、人間の認知におけるエピソード—意味の区別を模倣し、意味的類似性と学習された連想の両方を活用します。LoCoMoに関する実験では、4つの質問カテゴリすべてにおいて、コンテキストトークンを大幅に少なくしながら優れた性能を示しました。コードはGitHubで公開されています:https://github.com/ReinerBRO/HeLa-Mem