ダイナミック・ギストベース・メモリモデル(DGMM):人工知能のためのメモリ中心アーキテクチャ

arXiv cs.AI / 2026/5/5

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • この論文は、特に大規模言語モデルでは経験が固定パラメータに暗黙的に符号化されがちなため、永続的なメモリ、時間的なグラウンディング、来歴(プロヴェナンス)、解釈可能性に依然として制約があると主張しています。
  • そこで、主にパラメータ中心のアプローチに頼るのではなく、メモリを推論のための第一級の構造化基盤として扱う「メモリ中心」の代替案を提案します。
  • DGMM(ダイナミック・ギストベース・メモリモデル)は、経験を時間・出所・相互作用文脈に基づいてグラフ構造のエピソード/セマンティックなメモリとして表現し、それを進化させていく設計です。
  • DGMMは、手掛かり(キュー)条件付きの想起(リコール)によってワーキングメモリを構築し、加算的なメモリ成長と「想起条件付きの解釈」に基づく形式的なスキーマ/不変条件を提示しています。
  • その性質として、エピソードの永続性、手掛かりに局所化した「驚き」、さらに格納済みメモリ構造を変更せずに文脈が変化することが挙げられ、再学習なしで解釈可能・文脈対応・時間的に根拠づけられたAIを目指しています。

概要: 現代の人工知能システムは、大規模なパラメータ化、検索による補強、広範な静的コーパスでの学習によって高い性能を達成しています。しかし、これらの進歩にもかかわらず、永続的メモリ、時間的グラウンディング、来歴(プロベナンス)、解釈可能性といった点で制約に直面し続けています。これらの課題は特に大規模言語モデルにおいて顕著であり、経験が固定されたパラメータに暗黙的に符号化されるため、時間の経過に伴う過去のやり取りの保存、検査、再解釈の能力が制限されています。
本論文では、経験を明示的かつ永続的に表現することで、時間的グラウンディング、来歴、解釈可能性を支える、メモリ中心のアーキテクチャ基盤を確立します。パラメータ中心のアプローチに代わるものとして、推論のための第一級の構造化された基盤としてメモリを扱うことを提案します。
本論文では、経験を進化するグラフ構造化されたエピソード的・意味的メモリとして表現するアーキテクチャである、動的ギスト(Gist)ベースのメモリモデル(DGMM)を導入します。DGMMは、時間、出所、相互作用の文脈に基づいてグラウンディングされた、相互に接続された概念構造として経験を符号化し、作業メモリを構築するための機構として、選択的で手がかり(キュー)に条件づけられた想起を定義します。加法的なメモリ成長と、想起に条件づけられた解釈に基づく形式的スキーマおよびアーキテクチャ不変条件が提示されます。
結果は、DGMMの性質を特定します。具体的には、エピソードの永続性、手がかりに条件づけられた驚きの局所性、保存されたメモリの構造を変更せずに達成される文脈の多様性です。DGMMは、メモリが明示的で永続的であるという一貫したアーキテクチャ理論を提供し、再学習なしで解釈が進化しうることを支え、解釈可能で文脈を意識し、時間的にグラウンディングされたAIシステムを可能にします。