$ rightarrow$ ソースモデルは漏れるべきではない情報を漏らす:敵対的最適化によるドメイン適応におけるゼロショット転移のアンラーニング

arXiv cs.CV / 2026/4/10

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、ソースフリー・ドメイン適応におけるプライバシー上のリスクを指摘している。すなわち、ソースで学習した視覚モデルが、ソースデータを一切見ないにもかかわらず、ソース領域にのみ存在していたクラスの知識をターゲット領域へ意図せず持ち込んでしまう可能性がある。
  • 実験により、既存のSFDA手法が、ターゲット領域のラベルにのみ含まれるソース排他的クラスに対して強いゼロショット性能を達成できてしまうことが示されており、これは情報の意図しない移送を示唆する。
  • 著者らは、この設定に対処するためにSCADA-UL(Unlearning Source-exclusive ClAsses in Domain Adaptation)を提案する。先行する機械アンラーニング手法は分布シフトを適切に扱えていないと主張する。
  • SCADA-ULは、敵対的に生成した「忘却クラス(forget class)」サンプルに加え、リスケール(再調整)されたラベリング戦略と敵対的最適化を組み合わせることで、適応の過程でそれらのクラスをアンラーニングする。
  • 本研究では、継続学習(continual)および部分的に未知(partially-unknown)な忘却クラスの変種も含めて評価し、SCADA-ULが再学習(retraining)レベルのアンラーニング性能に到達しつつ、ベースラインを上回ることを報告している。コードはGitHubで公開されている。

Abstract

衛星画像や医療スキャンなど、ドメインをまたいだビジョンモデルの適応が進むにつれて、新たなプライバシー上のリスクが浮上してきました。すなわち、モデルが意図せずにソースドメイン固有の機微情報を保持し、それをターゲットドメインへ漏えいしてしまう可能性です。これは、機微なソースドメインデータのプライバシーを保護するための機械アンラーニング(machine unlearning)の説得力あるユースケースを生み出します。適応技術の中でも、ソースフリードメイン適応(SFDA: source-free domain adaptation)は、機械アンラーニング(MU)の喫緊の必要性を要請します。すなわち、ソースデータ自体は保護されている一方で、適応中に公開されるソースモデルはその影響を符号化してしまうのです。我々の実験では、既存のSFDA手法がターゲットドメインにおけるソース排他的クラスに対して強いゼロショット性能を示すことが明らかになりました。これは、それらのクラスがターゲットデータに表れていなくても、これらのクラスに関する知識がターゲットドメインへ意図せず漏えいされていることを示唆します。このリスクを特定し、対処するために、ドメイン適応におけるソース排他的クラスのアンラーニング(Unlearning Source-exclusive ClAsses in Domain Adaptation)を行うMU設定として、SCADA-ULを提案します。既存のMU手法は、データ分布のシフトを扱うように設計されていないため、この設定に対処できていません。そこで我々は新しいアンラーニング手法を提案します。すなわち、生成した忘却クラスのサンプルを敵対的に生成し、独自の再スケーリングによるラベリング戦略と敵対的最適化を用いて、ドメイン適応の過程でモデルにより忘却(unlearn)させます。また、本問題設定の連続学習版の2つのバリエーション、さらに「忘却されるべき特定のソースクラスが未知である」ケースへと研究を拡張します。理論的解釈とともに、包括的な実験結果により、提案手法が当該設定において一貫してベースラインを上回り、ベンチマークデータセットで再学習(retraining)レベルのアンラーニング性能を達成することを示します。コードは https://github.com/D-Arnav/SCADA で公開しています

$ rightarrow$ ソースモデルは漏れるべきではない情報を漏らす:敵対的最適化によるドメイン適応におけるゼロショット転移のアンラーニング | AI Navigate