Graph Propagated Projection Unlearning: 視覚・音声の識別モデルのための統一フレームワーク

arXiv cs.AI / 2026/4/16

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、視覚・音声の識別モデルの両方に対応可能な、クラスレベルの機械アンラーニング手法であるGraph-Propagated Projection Unlearning(GPPU)を提案する。
  • GPPUは、グラフに基づく特徴空間での伝播を用いてクラス固有の方向性を見つけ、その後表現を直交部分空間へ射影し、標的クラスの情報を除去するための狙いを定めたファインチューニングを行う。
  • CNN、Vision Transformer、Audio Transformerを含む対象について、6つの視覚データセットと2つの大規模音声ベンチマークで実験を行い、効率的なアンラーニング性能を示す。
  • 著者らは、従来のアンラーニング手法に比べて10〜20倍の高速化を報告しつつ、非標的(保持する)クラスの有用性(ユーティリティ)を維持している。
  • 本研究は、GPPUを責任ある深層学習のための、原理に基づいたモダリティ非依存アプローチとして位置付けており、著者らによれば過去に十分に探索されてこなかった規模での評価を行っている。

Abstract

深層ニューラルネットワークから学習済み情報を選択的かつ効率的に消去する必要性は、プライバシー、規制順守、および適応的なシステム設計の観点から、ますます重要になっています。本稿では、視覚モデルと音声モデルの両方にまたがって動作する、クラスレベルのアンラーニングのための統一的かつスケーラブルなアルゴリズムであるGraph-Propagated Projection Unlearning(GPPU)を提案します。GPPUは、グラフベースの伝播を用いて特徴空間内のクラス固有の方向を特定し、その後に直交部分空間へ表現を射影し、さらに対象に絞ったファインチューニングを行うことで、対象クラスの情報が効果的かつ不可逆的に除去されることを保証します。CNN、Vision Transformer、Audio Transformerを含む多様なアーキテクチャにまたがり、6つの視覚データセットと2つの大規模音声ベンチマークに対して包括的な評価を行った結果、GPPUは従来手法に比べて10〜20倍の高速化を達成しつつ、保持するクラスに対してモデルの有用性を維持できることを示します。本フレームワークは、機械アンラーニングに対する、原理に基づいたモダリティ非依存のアプローチを提供し、先行研究では十分に注目されてこなかった規模で評価しています。これは、より効率的で責任ある深層学習の実現に向けた貢献となります。