構造的アラインメントとしての情報:継続学習の力学的理論

arXiv cs.LG / 2026/4/9

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、壊滅的忘却(catastrophic forgetting)が、工学的な不備というよりも、知識を「グローバルなパラメータの重ね合わせ(スーパー ポジション)」として保持することに起因して数学的に生じる、と主張する。
  • 情報が構造的アラインメントによって実現されるとして、学習は (1) コヒーレンスを増大させる運動の法則(Law of Motion)と、(2) 局所的な誤差に基づいてコヒーレンスの地形を再形成する修正ダイナミクス(Modification Dynamics)に駆動される、Informational Buildup Framework(IBF)を提案する。
  • リプレイ、正則化、凍結サブネットワークなどの外部メカニズムを追加する従来の継続学習手法とは異なり、IBFは学習ダイナミクスそのものから記憶と自己修正を生成することを目指す。
  • 著者らは、まず2次元のおもちゃ設定でライフサイクル全体を示し、その後、3つのベンチマークでIBFを評価する。これには、非定常な制御、Stockfishにより独立にスコア付けされたチェス、凍結したViTエンコーダを用いたSplit-CIFAR-100が含まれる。
  • 結果として、報告によれば、生データを保存せずにリプレイよりも保持が優れる、つまりCIFAR-100でほぼゼロの忘却(BT = -0.004)、チェスで正の後方転移(+38.5 cp)、制御領域でリプレイよりも忘却が抑えられており、さらにベースラインに対してチェスで強い独立した優位性が得られたという。

Abstract

壊滅的忘却は工学的な失敗ではありません。それは、知識をグローバルなパラメータの重ね合わせとして保存することの、数学的な帰結です。正則化、リプレイ、固定されたサブネットワークといった既存手法は、共有パラメータ基盤に対して外部のメカニズムを追加します。しかし、記憶保持を学習ダイナミクスそのものから導出したものはありません。 本論文では、継続学習のための代替基盤である情報蓄積フレームワーク(IBF)を導入します。これは、「情報は保存された内容ではなく、構造的な整合の達成である」という前提に基づきます。IBFでは、2つの方程式がダイナミクスを支配します。すなわち、構成をより高いコヒーレンスへと駆動する運動の法則と、局所的な不一致に応答してコヒーレンスの地形を持続的に変形する修正ダイナミクスです。記憶、代理性、自己修正は、これらのダイナミクスから生じ、別個のモジュールとして付け加えられるのではありません。 まず、透明な2次元の玩具モデルで全ライフサイクルを示し、その後、3つの領域で検証します。制御された非定常な世界、Stockfishによって独立に評価されたチェス、固定されたViTエンコーダを用いたSplit-CIFAR-100です。3つのいずれにおいても、IBFは、生データを保存することなく、リプレイに優る保持を達成します。CIFAR-100ではほぼゼロの忘却(BT = -0.004)を観測し、チェスでは正の後向き転移(+38.5 cp)を示し、制御領域ではリプレイよりも忘却が43%少ないことを確認します。チェスにおいては、同フレームワークは独立評価下で平均的な行動上の優位性を+88.9 +/- 2.8 cpとして達成し、MLPおよびリプレイのベースラインを上回ります。