拡散サンプリングのためのクエリ下界

arXiv cs.LG / 2026/4/14

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、生成1サンプルあたりに必要なスコア関数評価の回数を減らすことで、拡散モデルのサンプリングを加速することに関する理論的限界を研究する。
  • 拡散サンプリングに対する初めてのスコア・クエリ下界を証明する:多次元(d次元)のターゲットに対して、多項式精度のスコア推定(\(\varepsilon = d^{-O(1)}\))を仮定すると、任意のサンプリングアルゴリズムは適応的スコア・クエリを\(\tilde{\Omega}(\sqrt{d})\)回以上必要とする。
  • この結果は、サンプラーが\(\tilde{\Omega}(\sqrt{d})\)個の異なるノイズレベルを実効的に探索することが構造的に必要であることを示唆する。
  • 著者らは、これらの下界を用いて、実用的な拡散サンプラーにおいてマルチスケールのノイズスケジュールが必要であり、単なるヒューリスティックな選択ではない理由を形式的に説明する。

要旨: 拡散モデルは、学習したスコア推定値を反復的に照会することでサンプルを生成する。サンプルリングを加速するために、スコア評価の回数を最小化することに焦点を当てた文献が急速に増えているが、そのような加速の情報理論的限界はなお不明である。
本研究では、拡散サンプリングに対する初めてのスコア照会の下界を確立する。d 次元の分布に対して、任意の L^p の意味で多項式精度のスコア推定値 =d^{-O(1)} へのアクセスが与えられると、任意のサンプリングアルゴリズムは、適応的なスコア照会を ()(すなわち ilde{})回、少なくとも ilde{}O() が必要であることを証明する。特に本証明は、任意のサンプラーが ilde{}O() 個の異なるノイズ水準を探索しなければならないことを示し、実際にマルチスケールのノイズスケジュールが必要となる理由を形式的に説明する。