ブラックボックス・データフリーの知識蒸留における多様な画像事前分布

arXiv cs.LG / 2026/4/29

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、教師ネットワークのインターフェースや学習データにアクセスできず、学生が教師のトップ1予測のみを利用できるブラックボックス・データフリー知識蒸留を扱います。
  • DIP-KD(Diverse Image Priors Knowledge Distillation)という枠組みを提案し、多様な画像事前分布の合成、コントラスト学習による識別力の強化、そしてプライマー学生によるソフト確率KDという3段階の協調パイプラインで合成データ蒸留を改善します。
  • 従来手法の、合成サンプルにおけるデータ多様性の不足や蒸留シグナルの弱さといった制約を直接的に解決することを狙っています。
  • 12のベンチマークでの評価では、DIP-KDが最先端性能を達成し、アブレーションからデータ多様性が制約環境下での知識獲得に重要であることが示されます。
  • 研究は、プライバシー保護や分散型AI環境のようにデータやモデルアクセスが制限される状況での実用性を意図しています。

Abstract

知識蒸留(KD)は、複雑な教師ネットワークから効率的な学生モデルへ専門知識を移転するための重要な仕組みを表します。しかし、分散型またはセキュアなAIエコシステムでは、プライバシー規制や企業秘密などの利害により、教師のインターフェースや元のデータセットへのアクセスがしばしば制限されます。これらの制約は、利用可能なのがトップ1予測のみで学習データが一切ないという、困難なブラックボックスのデータフリーKD状況を定義します。近年のアプローチでは合成データを用いるものの、データの多様性や蒸留のシグナルに関して依然として限界があります。私たちは、Diverse Image Priors Knowledge Distillation(DIP-KD)を提案します。この枠組みは、3段階の協調的パイプラインによりこれらの課題に対処します。(1)多様な視覚パターンと意味論を捉えるための画像プライオリの合成、(2)コントラスト学習によって合成サンプル間の集合的な識別性を高めるためのコントラスト化、(3)ソフト確率KDを可能にする新しいプライマー学生による蒸留、です。12のベンチマークにわたる評価の結果、DIP-KDは最先端の性能を達成し、アブレーションにより、制限されたAI環境における知識獲得にデータ多様性が重要であることが確認されました。