要旨: 標準的な評価指標は、U-Net または Transformer アーキテクチャに基づくデノイジング拡散モデルが実践上よく一般化することを示唆します。しかし、最適な拡散モデルが訓練データを完全に記憶することが示せるように、モデル誤差が一般化を決定します。ここでは、訓練時間の増加に伴い十分に大きなデノイザーモデルが訓練セットの記憶を増大させることを示しますが、得られるデノイジング軌道はこの傾向に従いません。我々の実験は、この観察の理由が、中間ノイズレベルで過学習が発生するという事実に根ざしているが、これらのノイズレベルでのノイズ付き訓練データの分布は推論時のデノイジング軌道とほとんど重なりがないことにあることを示しています。より深い洞察を得るために、2D の簡易拡散モデルを用いて、中間ノイズレベルでの過学習が主にモデル誤差とデータ支持の密度によって決定されることを示します。最適なデノイジング・フローフィールドは訓練サンプルの周りに鋭く局在しますが、十分なモデル誤差またはデータ多様体上の高密度のサポートは厳密なリコールを抑制し、滑らかで一般化するフローフィールドを生み出します。さらに、訓練時間、モデルサイズ、データセットサイズ、条件粒度、拡散ガイダンスなど、いくつかの要因が一般化挙動にどのように影響するかを調べて、結果を補強します。
拡散モデルは一般化するが、思い描く方法とは異なる
arXiv cs.LG / 2026/3/17
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- 本論文は、拡散モデルが訓練データを記憶できる一方で、一般化は記憶だけでなく、デノイジングの軌道によって左右されることを示している。
- 中間のノイズレベルで過剰適合が生じることを見出すが、推論時のデノイジング経路と強く一致するわけではなく、記憶化が必ずしも一般化を害する理由を説明している。
- 2次元の簡易的な拡散モデルは、過剰適合がモデル誤差とデータ分布密度によって生じ、訓練サンプルの周りには鋭く局在する一方、条件が整えば滑らかな一般化の流れを見せることを示している。
- 本研究は、訓練時間、モデルサイズ、データセットサイズ、条件の粒度、そして拡散ガイダンスが一般化にどのように影響するかを分析し、拡散ベースのシステム設計に実用的な洞察を提供している。
