モデル固有表現のための変分的特徴圧縮
arXiv cs.CV / 2026/4/9
💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本論文は、共有・クラウド推論における「入力の転用(input repurposing)」に取り組む。すなわち、アクセス制御があるにもかかわらず、不正なモデルが公開された表現を意図しないタスクに流用できてしまう問題である。
- ピクセル単位の再構成損失を回避しつつ、タスク駆動の交差エントロピー目的関数にKL正則化を加えて学習する、変分潜在ボトルネックを用いた特徴圧縮/エンコーディングの枠組みを提案する。
- 動的な二値マスキング戦略により、各潜在次元のKLダイバージェンスおよびフリーズしたターゲットモデルに対する勾配ベースのサリエンシーに基づいて、利用する/抑制する潜在次元を選択する。これにより、高いタスク特異的有用性を実現する。
- CIFAR-100での実験では、得られた表現は意図した分類器に対して高精度を維持しつつ、意図しない分類器の精度を2%未満にまで低下させた。抑制比は45倍を超えると報告されている。
- 著者らは、本手法がサリエンシー計算のためにホワイトボックスの学習セットアップ(勾配アクセス)を必要とする一方、推論時にはフリーズしたターゲットモデルを通したフォワードパスのみでよいとしている。また、適応的な敵対者に対する頑健性評価のさらなる検討を求めている。



