SCM:大規模言語モデル向けのアルゴリズム的忘却を備えた睡眠統合メモリ
arXiv cs.LG / 2026/4/24
📰 ニュースModels & Research
要点
- この論文は、従来のコンテキストウィンドウやストレージ手法では欠けがちな、永続的で構造化された、より生物学的に妥当なメモリを目指した大規模言語モデル向けのメモリアーキテクチャ「SCM(Sleep-Consolidated Memory)」を提案しています。
- SCMは、限られた容量のワーキングメモリ、重要度の多次元タグ付け、「睡眠」段階に相当するオフライン統合(NREMとREMの区別あり)、価値に基づく意図的な忘却、内省のための計算的セルフモデルという5つの要素を組み合わせます。
- 8つのテストからなるベンチマークで、試作は10ターン会話における想起で完璧な精度を示し、適応的忘却によりメモリノイズを90.9%削減できたと報告されています。
- さらに、概念を数百件保持してもメモリ検索のレイテンシが1ミリ秒未満に保たれるとしており、著者らはこの成果を今後のLLMメモリ研究の検証可能な基盤だと位置づけています。


