継続学習のための表現ファインチューニング
arXiv cs.AI / 2026/3/13
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- CoRe(Continual Representation Learning)はファインチューニングを重み空間から表現空間のアプローチへ移行し、継続学習を改善します。
- 隠れ表現の低ランク部分空間への更新を制約することにより、過去のタスクの安定性を保ちながら将来のタスクの可塑性を維持し、パラメータ効率を実現します。
- 多くのPEFT手法とは異なり、CoReは表現の更新に対して明示的な目的を用い、ドメインシフトおよび壊滅的忘却に対する感度を低減します。
- 複数の継続学習ベンチマークにおける実験結果は、CoReがパラメータ効率を維持するだけでなく、既存の最先端手法を著しく上回ることを示しています。
世界は本質的に動的であり、継続学習はモデルが絶えず進化するデータストリームに適応できるようにすることを目的としています。事前学習済みモデルは継続学習において強力な性能を示してきましたが、下流タスクへ効果的に適応するにはまだファインチューニングが必要です。しかし、一般的なパラメータ効率型ファインチューニング(PEFT)手法は、重みレベルでの経験的でブラックボックス的な最適化を通じて機能します。これらのアプローチは表現のドリフトを明示的に制御できず、継続学習のシナリオにおいてドメインシフトと壊滅的忘却に対して感度が高くなります。本研究では、Continual Representation Learning(CoRe)と呼ばれる新しいフレームワークを導入します。これは初めてファインチューニングのパラダイムを重み空間から表現空間へシフトするものです。従来の方法とは異なり、CoRe は隠れ表現の低ランク線形部分空間内でタスク固有の介入を行い、明示的な目的を持つ学習プロセスを採用します。これにより過去のタスクの安定性を確保しつつ新しいタスクへ適応するための可塑性を維持します。更新を低ランクの部分空間へ制約することにより、CoRe は卓越したパラメータ効率を達成します。複数の継続学習ベンチマークにおける広範な実験は、CoRe がパラメータ効率を維持するだけでなく、既存の最先端手法を顕著に上回ることを示しています。我々の研究は、表現ファインチューニングを継続学習の新しく、より効果的で解釈可能なパラダイムとして導入します。

