広告

リソース制約下のエージェントのための時間的メモリ:確率的コンプレス・加算・平滑化による継続学習

arXiv cs.AI / 2026/4/2

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、固定されたメモリ予算のもとで逐次エージェントに対する継続学習フレームワークを提案し、メモリをパラメータベクトルとしてではなく確率過程として表現する。
  • 3ステップの Compress–Add–Smooth(CAS)再帰則を導入し、「ブリッジ拡散(bridge diffusion)」のリプレイ過程を更新することで、中間の周辺分布には過去の経験を符号化し、終端の周辺分布には現在を符号化する。
  • 理論解析は、モデルの周辺分布が、成分数が固定されたガウス混合モデル(混合数 K)であり、時間的複雑性が、区分的線形のプロトコル区間 L によって制御される設定で行い、節点にガウス混合モデル状態を保存する。
  • 計算コストは、逆伝播なし、保存データなし、ニューラルネットワークなしの条件で、1日あたり O(L·K·d^2) フロップであると述べられており、コントローラ負荷の軽いハードウェアを想定している。
  • 忘却は、より細かなプロトコルをより粗いプロトコルで再近似することで生じる、損失を伴う時間的圧縮に起因するとされる。また、保持半減期は L に対して線形にスケールし、一定数は情報論的な解釈を持つ(シャノンの通信路容量に類似)。

Abstract

固定されたメモリ予算の下で、逐次的に動作するエージェントは、古い経験を忘れることなく新しい経験を取り込まなければなりません。本稿では、メモリをパラメータベクトルではなく確率過程として扱う枠組みを提案します。すなわち、区間 [0,1] のリプレイ区間上の a Bridge Diffusion であり、その終端の周辺分布は現在を符号化し、中間の周辺分布は過去を符号化します。新しい経験の取り込みは、三段階の a \emph{Compress--Add--Smooth}(CAS)再帰によって行います。我々は、この枠組みを、d 次元において固定された成分数~K のガウス混合によって周辺確率密度をモデル化するクラスのモデル上で検証します。時間的複雑性は、ガウス混合状態を格納する分割線形プロトコル区間の固定本数~L によって制御されます。再帰全体の計算コストは1日あたり O(LKd^2) フロップであり、逆伝播も、保存データも、ニューラルネットワークも必要としません。そのため、コントローラ負荷の軽いハードウェアで実現可能です。 この枠組みにおける忘却は、パラメータ干渉によってではなく、損失のある時間圧縮によって生じます。すなわち、固定された区間予算の下で、より粗いプロトコルによってより細かなプロトコルを再近似することです。我々は、保持の半減期が a_{1/2}\approx c\,L の形で線形にスケールすることを見出します。ただし c>1 は、ダイナミクスに依存する定数であり、混合の複雑性~K、次元~d、またはターゲットとなるファミリの幾何学には依存しません。この定数~c は、シャノンのチャネル容量に類似した情報理論的解釈を持ちます。ブリッジの背後にある確率過程は、時間的に整合した「ムービー」リプレイ、すなわちエージェントの履歴の圧縮された物語を提供し、MNIST の潜在空間の図示によって視覚的に示します。本枠組みは、忘却の機構、率、形を数学的に精密に研究できる、連続学習の完全な解析的「イジングモデル」を提供します。

広告