秩序から分布へ:継続学習における忘却のスペクトル的特徴付け

arXiv cs.AI / 2026/4/16

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、継続学習における忘却(過去のタスクでの性能低下)に取り組み、ランダムなタスク順序の研究から、タスクサンプリングの分布という観点へと移行する。
  • タスクが分布 Π から i.i.d. に引かれると仮定し、厳密にフィットする線形レジームを解析することで、忘却量に対する厳密な演算子恒等式を導き、忘却量の再帰的なスペクトル構造を可能にする。
  • この恒等式を用いて、著者らは無条件の上界を導出し、忘却挙動における支配的な漸近項を特定する。
  • 一般的な、退化していない場合において、本論文は定数を除いた収束率を特徴付け、その率をタスク分布の幾何学的性質に結び付けることで、遅い忘却と速い忘却の条件を説明する。

要旨: 連続学習における中心的な課題は忘却(forgetting)であり、新しい課題への逐次的な適応によって引き起こされる、以前に学習した課題における性能の低下です。忘却は経験的に広く研究されてきましたが、厳密な理論的な特徴づけは依然として限られています。この方向性における注目すべき一歩として、固定された課題コレクションをランダムな順序で提示する下での忘却を、過パラメータ化された線形回帰のもとで解析した
\citet{evron2022catastrophic} があります。本研究では、順序から分布へと視点を移します。固定された課題コレクションがランダムな順序の下でどのように振る舞うかを問うのではなく、課題が課題分布~\Pi から i.i.d.(独立同分布)でサンプリングされる、厳密に適合する(exact-fit)線形の設定を考え、その生成分布そのものが忘却をどのように支配するかを問います。この設定において、忘却量に対する厳密な演算子恒等式を導出し、再帰的なスペクトル構造を明らかにします。この恒等式を土台として、無条件の上界を確立し、支配的な漸近項を同定し、さらに一般的な非退化(nondegenerate)の場合には定数の範囲まで収束率を特徴づけます。さらに、この収束率を課題分布の幾何学的性質に結びつけることで、本モデルにおいて遅い忘却・速い忘却を駆動する要因を明確化します。