重要度を考慮したファインチューニングによる効率的な敵対的学習
arXiv cs.CV / 2026/4/15
💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 画像用トランスフォーマ(Vision Transformer: ViT)モデルは標準的な性能に関してはうまくスケールする一方で、モデルサイズの増加に比例して敵対的ロバスト性は改善しない。
- 本論文では、敵対的ロバスト性にとって最も重要な重みを特定し、その小さな部分のみをファインチューニングするCriticality-Aware Adversarial Training(CAAT)を提案する。
- CAATは、重要パラメータ数がしきい値を超える場合に、選択したモジュールや重み行列を頑健に調整するためにパラメータ効率的ファインチューニング(PEFT)を用い、フルモデルでの敵対的学習と比べて学習コストを削減する。
- 3つの敵対的学習データセットでの実験により、CAATはより大きなViTアーキテクチャへも汎化し、標準的な敵対的学習と非常に近いロバスト性を達成することが示される。パラメータの約6%のみを調整しつつ、性能低下は4.3%にとどまる。
- これらの結果は、CAATがさらに少ないパラメータ数で学習する既存の軽量敵対的学習手法を上回る可能性を示しており、大規模に対応した敵対的学習への道筋を示唆している。




