一般化の余韻を高めるための生成モデルのシーズニング

arXiv cs.LG / 2026/3/20

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • 本論文は f-ダイバージェンスに対する強双対性の結果を拡張し、判別器に導かれた洗練レシピを導出する。これにより任意の生成モデルを洗練することができる。
  • 洗練されたモデルは、非洗練の対応物と比較して一般化能力が理論的に高いことを示しており、一般化ギャップは用いられた判別器集合の Rademacher 複雑性に関連付けられている。
  • 本フレームワークは最近のスコアベースの拡散手法(Kim et al., 2022)を包含し、その手法に対して理論的な一般化保証を提供する。
  • 著者らはこの研究を、既存手法の検証としてだけでなく、新たなアルゴリズム的道筋の源泉として提示しており、生成モデルにおける一般化の理解を深めている。

概要: 識別器を用いて生成モデルを訓練または微調整することは、かなり成功したフレームワークであることが証明されている。顕著な例として、弱い学習者制約を満たす識別器を介して生成モデルを強化する他のパラダイムと共に、識別器を訓練することによって生じる損失を最小化する Generative Adversarial Networks (GANs) が挙げられる。より最近では、拡散モデルさえも、ある種の識別器ガイダンスによって利点を示している。
本研究では、f-divergences に関連する強双対性の結果を拡張し、それにより識別器を指針とするレシピを生み出し、任意の生成モデルを \textit{洗練する}ことを可能にします。次に、洗練された生成モデルは、非洗練の対応モデルと比較して一般化を理論的に改善することを示します。特に、私たちの解析は、一般化のギャップが、洗練に用いられる識別器集合の Rademacher複雑度に基づいて改善されることを明らかにします。私たちのレシピは、最近導入されたスコアベースの拡散アプローチ(Kim et al., 2022)を包含しており、実証的な成功を示してきました。しかし、我々の解析によってこの手法の一般化保証に光を当てることができます。したがって、本研究は既存の研究に対する理論的検証を提供し、新しいアルゴリズムの道を示し、生成モデル全般における一般化の理解に寄与する。