スコアマッチング・拡散モデルの内在的に低次元なデータに対する一般化特性

arXiv stat.ML / 2026/4/24

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、有限サンプル状況で未知のデータ分布を学習するスコアベース拡散モデルについて、統計的な誤差上界を導くことで理論的ギャップに取り組む。
  • 従来の解析を超えて、実データに多い内在的な低次元構造を反映し、収束率を周辺(表現)次元ではなく新たな (p,q)-ワッサースタイン次元で決まる形に改善する。
  • 前向き拡散過程とデータ分布に関する比較的緩い仮定のもと、コンパクト台・多様体・滑らかな密度といった条件なしで、有限モーメント条件だけを用いて、すべての p ≥ 1 に対する Wasserstein-p の一般化保証を証明する。
  • 期待 Wasserstein-p 誤差が \(\widetilde{O}(n^{-1 / d^\ast_{p,q}(\mu)})\) のオーダーでスケールすることを示し、データ幾何に自然に適応し次元の呪いを緩和できることを明らかにする。
  • さらに、本研究は拡散モデル解析を GAN 理論や最適輸送における鋭いミニマックス率へと概念的に橋渡しし、非有界台をもつ分布へワッサースタイン次元の考え方を拡張する点も示す。

Abstract

スコアベース拡散モデルの目覚ましい経験的成功にもかかわらず、その統計的保証はいまだ十分に発展していません。既存の解析ではしばしば、自然画像に見られるような実データに共通する固有の低次元構造を反映しない、悲観的な収束率が提示されます。本研究では、有限個のサンプルから未知の分布 mu を学習するためのスコアベース拡散モデルの統計的収束を調べます。前向き拡散過程およびデータ分布に関する緩やかな正則性条件の下で、学習された生成分布に対する有限標本誤差の上界を、Wasserstein-p 距離によって測定して導出します。先行結果と異なり、提案する保証はすべての p ge 1 に対して成り立ち、さらに mu に対する有限モーメントの仮定のみを必要とし、コンパクト台、マンフォールド、滑らかな密度条件は不要です。具体的には、有限 q 次モーメントをもつ mu から独立同分布に従う n 個のサンプルを取り、適切に選んだネットワークアーキテクチャ、ハイパーパラメータ、離散化スキームのもとで、学習分布 uhat mu の間の期待 Wasserstein-p 誤差が \[\mathbb{E}\, \mathbb{W}_p(\hat{\mu},\mu) = \widetilde{O}\!\left(n^{-1 / d^\ast_{p,q}(\mu)}\right),\]\ のようにスケールすることを示します。ここで d^\ast_{p,q}(\mu) mu(p,q)-Wasserstein 次元です。これらの結果は、拡散モデルがデータの固有の幾何に自然に適応し、収束率が周囲の次元ではなく d^\ast_{p,q}(\mu) に依存するため、多次元性の呪いを緩和することを示しています。さらに本理論は、拡散モデルの解析を GAN の解析および、最適輸送で確立された鋭いミニマックス収束率と、概念的に橋渡しするものです。提案する (p,q)-Wasserstein 次元は、古典的な Wasserstein 次元の概念を有界でない台をもつ分布へ拡張するものであり、独立した理論的関心を持つ可能性もあります。