非エキスパート例(非エグザンプラ)に基づく継続的グラフ学習のための解析的ドリフト・レジスタ

arXiv cs.AI / 2026/4/6

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 非エキスパート例に基づく継続的グラフ学習(NECGL)は、クラス単位のプロトタイプのみを保存することでプライバシー上のリスクを回避するが、機能ドリフトによって継続学習の性能が低下しうる。
  • 本論文は、反復的なバックプロパゲーションを用いて、凍結した事前学習モデルの限界を超えると同時にモデルの可塑性を向上させる、理論的に裏付けられたNECGLフレームワークであるAnalytic Drift Resister(ADR)を提案する。
  • パラメータ更新によって生じるドリフトに対抗するため、リッジ回帰を用いてGNN上で層ごとの線形変換を統合するHierarchical Analytic Merging(HAM)を導入する。
  • さらに、本フレームワークは理論的に忘却ゼロを可能にするクラス増分学習のために、Analytic Classifier Reconstruction(ACR)を追加する。
  • 4つのノード分類ベンチマークでの実験により、ADRが既存の最先端手法と競争力を維持していることが示される。

Abstract

非例示型継続グラフ学習(Non-Exemplar Continual Graph Learning: NECGL)は、壊滅的忘却を抑えるために、生のグラフ例ではなくクラスレベルのプロトタイプ表現のみを保持することで、リハーサルベースのパラダイムに本質的に内在するプライバシーリスクを排除することを目指します。 しかし、この設計上の選択は必然的に特徴ドリフトを引き起こします。 そこで、初期段階の代替として、分析的継続学習(Analytic Continual Learning: ACL)は、事前学習済みモデルを凍結したままのモデルが持つ内在的な汎化特性を活用し、継続学習の性能を強化します。 それにもかかわらず、主要な欠点は、モデルの可塑性が著しく減衰する点にあります。 これらの課題を克服するために、我々は新規かつ理論的に裏付けられたNECGLフレームワークであるAnalytic Drift Resister(ADR)を提案します。 ADRは反復的バックプロパゲーションを利用して、凍結した事前学習制約から自由になり、変化するタスクのグラフ分布に適応し、モデルの可塑性を強化します。 パラメータ更新が特徴ドリフトを引き起こすため、さらに特に、グラフニューラルネットワーク(GNN)における線形変換をリッジ回帰によって層ごとに統合する階層的分析的マージ(Hierarchical Analytic Merging: HAM)を提案し、それによって特徴ドリフトへの絶対的な耐性を保証します。 これに基づき、分析的分類器再構成(Analytic Classifier Reconstruction: ACR)により、理論的に忘却ゼロのクラス増分学習を実現します。 4つのノード分類ベンチマークでの実験評価により、ADRが既存の最先端手法に対して強い競争力を維持することが示されます。