拡散モデルにおけるスコア平滑化の補間効果について
arXiv stat.ML / 2026/4/21
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文は、拡散モデルが学習データに存在しない新しいデータを生成できる創造性は、経験的スコア関数をニューラルネットが平滑化したものを学ぶことで、脱ノイズ過程がデータ生成を導くことに起因する、という仮説を検証します。
- 学習データが一次元部分空間上に一様に分布する設定を中心に、著者らはスコア平滑化と脱ノイズ力学の相互作用を解析的に解明し、数値実験で裏付けています。
- スコア関数を平滑化すると、脱ノイズ後のサンプルがその部分空間上で学習データを補間するようになることが示されています。
- さらに、明示的な正則化の有無にかかわらずニューラルネットでスコア関数を学習することで、同様の補間効果が自然に得られることを、理論的・実証的に示し、単純な非線形マニフォールドの場合にも拡張しています。

