AI Navigate

継続学習のためのメモリ効率の高い帰納的バイアスとしての抽象化

arXiv cs.LG / 2026/3/19

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • 抽象化強化トレーニング(AAT)は、損失レベルの修正であり、モデルが具体的なインスタンスとそれらの抽象表現の両方を共同で最適化するよう促し、サンプル間の潜在的な関係構造を捉える。
  • AATは、厳密にオンラインのデータストリームにおける学習を安定化させ、リプレイバッファの必要性を排除する、メモリ効率の高い帰納的バイアスを導入する。
  • 著者らはAATを、エンティティマスキングを伴う制御された関係データセットと、共通の諺を含む物語データセットという2つのベンチマークで評価し、強力な経験リプレイを用いたベースラインと同等以上の性能を示した。
  • このアプローチは、追加のメモリを全く使わず、トレーニング目的の変更も最小限にとどめることで、これらの利得を達成する。抽象化を、リプレイベースの継続学習に対するメモリ不要の代替として強調している。

概要: 現実世界は非定常で無限に複雑であり、再訓練をゼロから行うという高いコストを回避しつつ、知的エージェントが継続的に学習することを要求します。オンライン継続学習はこの設定の枠組みを提供しますが、新しい情報を学習することはしばしば以前に獲得した知識と干渉し、忘却と一般化の低下を引き起こします。これへの対処として、Abstraction-Augmented Training (AAT) を提案します。これは、損失関数レベルの変更で、モデルが例全体で共有される潜在的な関係構造を捉えるよう促します。具体的な事例とそれらの抽象表現を共同で最適化することにより、AATはメモリ効率の高い帰納的バイアスを導入し、厳密にオンラインなデータストリームでの学習を安定化させ、リプレイバッファの必要性を排除します。抽象化の多面的な性質を捉えるため、2つのベンチマークで AAT を導入・評価します。1つは抽象化がエンティティマスキングを介して実現される制御された関係データセット、もう1つは抽象化が共通の諺を通じて表現される物語データセットです。結果は、追加のメモリを一切必要とせず、トレーニング目的の変更を最小限に抑えつつ、強力な経験リプレイ(ER)ベースラインと同等以上の性能を AAT が達成することを示しています。本研究は、構造的抽象化を ER に対する強力でメモリーフリーな代替手段として浮き彫りにします。