広告

人間のように生涯持続する記憶:無限のインタラクションのための神経科学に基づくアーキテクチャ

arXiv cs.AI / 2026/4/1

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、LLMのコンテキストウィンドウを単に拡大するだけでは、信頼できる長期かつ文脈に敏感な記憶は提供できないと主張している。なぜなら、検索が完全であっても、コンテキスト長の増大は推論を大きく劣化させ得るからである。
  • 感情に基づく連想的な「ヴァレンス(価値)ベクトル」を事前計算し、それを創発的な信念階層として編成することで、「無限のインタラクション」に向けた、神経科学および認知に根ざした記憶アーキテクチャを提案する。
  • 枠組みは、想起動作のデフォルトを高速で自動的なシステム1型の活性化とし、必要なときのみシステム2型の意図的な想起を行うとする。また、幻覚を構造的に緩和するために、段階的な認識論的状態(epistemic states)を導入する。
  • 「視床ゲートウェイ(thalamic gateway)」による能動的でフィードバック依存の符号化を説明する。これは、記憶ストア間と、好奇心駆動の調査によってゴブ(要点)を形成する実行(executive)プロセスとの間で情報をルーティングする。
  • 実装要件として7つの機能特性を概説しており、意図する到達点は、システムが専門性に近い処理へと収束することで、相互作用が時間とともにより安価になることである。

Abstract

大規模言語モデルには、長期的な相互作用のための持続的で構造化された記憶、ならびに文脈に応じた検索のための記憶が欠けています。コンテキストウィンドウを拡大しても解決にはなりません。最近の証拠では、検索が完全であっても、コンテキスト長だけで推論が最大85%も低下することが示されています。本研究では、相補的学習システム理論、認知行動療法の信念階層、二重過程認知、ファジィ・トレース理論に基づいた、生物に着想を得たメモリの枠組みを提案します。これは3つの原則に基づいて整理されています:(1) 記憶はコンテンツだけでなく価数(valence)を持つ——事前に計算された感情-連想の要約(価数ベクトル)を、ベックの認知モデルに着想を得た創発的な信念階層に編成することで、熟慮の前に瞬時に方向付け(orientation)を可能にします;(2) 検索はデフォルトでシステム1、必要に応じてシステム2へエスカレーション——デフォルトとして自動の広がり活性化と受動的プライミングを用い、意図的な検索は必要な場合にのみ実行し、幻覚を構造的に扱う段階的な認識論的状態を提供します;そして(3) エンコーディングは能動的で、現在に基づき、フィードバック依存である——視床のゲートウェイが情報にタグを付けてストア間をルーティングし、また実行系は受動的な曝露ではなく、好奇心主導の調査によってジャスト(gist)を形成します。7つの機能的特性により、いかなる実装も満たすべき要件が特定されます。時間とともに、システムはシステム1処理へ収束していきます——それは臨床的専門性の計算機アナログです。その結果、経験を重ねることで相互作用はより安価になり、より高価になるのではありません。

広告