拡散モデルにおけるスコア平滑化の補間効果について

arXiv stat.ML / 2026/4/21

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、拡散モデルが学習データに存在しない新しいデータを生成できる創造性は、経験的スコア関数をニューラルネットが平滑化したものを学ぶことで、脱ノイズ過程がデータ生成を導くことに起因する、という仮説を検証します。
  • 学習データが一次元部分空間上に一様に分布する設定を中心に、著者らはスコア平滑化と脱ノイズ力学の相互作用を解析的に解明し、数値実験で裏付けています。
  • スコア関数を平滑化すると、脱ノイズ後のサンプルがその部分空間上で学習データを補間するようになることが示されています。
  • さらに、明示的な正則化の有無にかかわらずニューラルネットでスコア関数を学習することで、同様の補間効果が自然に得られることを、理論的・実証的に示し、単純な非線形マニフォールドの場合にも拡張しています。

Abstract

拡散モデルは、学習データセットに存在しない新しいデータを生成できるという興味深い能力によって、さまざまな分野で目覚ましい進歩を遂げてきました。本研究では、そのような創造性が、ニューラルネットワークのバックボーンが経験的スコア関数の平滑化された版を学習し、それによって脱ノイズ(denoising)のダイナミクスが学習データを内挿するデータ点を生成するように導かれることから生じる、という仮説を検討します。主に、学習データセットが1次元部分空間上に一様に位置する設定に焦点を当て、スコアの平滑化と脱ノイズのダイナミクスの相互作用を、解析的解と数値実験により明らかにし、スコア関数を平滑化することで、脱ノイズされたデータサンプルがその部分空間に沿って学習データセットを内挿し得ることを示します。さらに、データが単純な非線形マニフォールドに属する場合を含め、ニューラルネットワークによってスコア関数を学習することが、(明示的な正則化の有無にかかわらず)同様の効果を自然に達成できることについて、理論的および実証的な根拠を提示します。