DSCA: 生涯にわたるVLM編集のための動的サブスペース概念アラインメント
arXiv cs.CV / 2026/4/10
💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本論文は、Vision Language Models(VLM)に対する生涯学習型の知識編集に取り組み、連続的な編集が壊滅的忘却、推論の劣化、ならびにクロスモーダルのミスアラインメントを引き起こす点を明らかにする。
- 既存のVLM編集手法は、ゲーティング付きアダプタ、活性化の編集、あるいはパラメータのマージを用いる場合でも、依然として絡み合った共有表現空間上で動作するため、構造的な干渉の問題を抱えると主張する。
- 提案手法のDynamic Subspace Concept Alignment(DSCA)は、(逐次クラスタリングとPCAにより)表現空間を直交する意味的サブスペースに分解し、概念を構造的に分離するために、変換されたこれらの空間内でのみ編集を行う。
- DSCAは基盤モデルを凍結し、多項からなる損失を用いてタスクの忠実性を保持し、編集の局所性を強制し、さらにクロスモーダルの整合性を維持することで、単一編集の成功率および長い系列での安定性において報告された改善を得る。




