ブラックボックス・データフリーの知識蒸留における多様な画像事前分布
arXiv cs.LG / 2026/4/29
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- 本論文は、教師ネットワークのインターフェースや学習データにアクセスできず、学生が教師のトップ1予測のみを利用できるブラックボックス・データフリー知識蒸留を扱います。
- DIP-KD(Diverse Image Priors Knowledge Distillation)という枠組みを提案し、多様な画像事前分布の合成、コントラスト学習による識別力の強化、そしてプライマー学生によるソフト確率KDという3段階の協調パイプラインで合成データ蒸留を改善します。
- 従来手法の、合成サンプルにおけるデータ多様性の不足や蒸留シグナルの弱さといった制約を直接的に解決することを狙っています。
- 12のベンチマークでの評価では、DIP-KDが最先端性能を達成し、アブレーションからデータ多様性が制約環境下での知識獲得に重要であることが示されます。
- 研究は、プライバシー保護や分散型AI環境のようにデータやモデルアクセスが制限される状況での実用性を意図しています。


