条件付き拡散におけるガウス混合逆カーネルの普遍性

arXiv cs.LG / 2026/4/16

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、逆カーネルを有限個のガウス混合(ReLUネットワークのロジットを用いる)として実装した条件付き拡散モデルが、文脈(コンテキスト)平均化した条件付きKLダイバージェンスのもとで、通常の目標分布を任意の精度で近似できることを証明する。
  • 誤差は、可逆拡散のホライズンが増えるにつれて縮小しがちな終端の不整合に起因する不可避項と、各ステップにおける逆カーネル近似誤差に分解される。
  • パス空間の分解と、各逆カーネルが有限次元の特徴写像を通して因数分解されるという仮定により、各拡散ステップを静的な条件付き密度近似の問題へと帰着させる。
  • この手法は、Noretsのガウス混合近似の枠組みと、各ステップの誤差を制御する定量的なReLU境界を組み合わせ、終端の一致が厳密である場合には、ニューラル逆カーネルのクラスが条件付きKLに関して稠密(dense)であることを示す。
  • 得られた結果は、ガウス混合による逆遷移を伴う条件付き拡散における表現能力に対する理論的基盤を強化する、普遍性/稠密性の保証を与える。

Abstract

本論文では、逆核がReLUネットワークのロジットを用いた有限のガウス混合である条件付き拡散モデルが、文脈平均化された条件付きKLダイバージェンスにおいて、適切に正則な目標分布を、通常は拡散のホライゾンを増やすにつれて消失する到達不能な終端ミスマッチを除き、任意の精度で近似できることを証明する。パス空間の分解により出力誤差は、このミスマッチと各ステップごとの逆核誤差に還元できる。各逆核が有限次元の特徴写像を通して因数分解されると仮定すると、各ステップは静的な条件付き密度近似問題となり、それはNoretsのガウス混合の理論と定量的なReLU境界を組み合わせることで解ける。終端が厳密に一致する場合、得られるニューラル逆核のクラスは条件付きKLに関して稠密になる。