要旨: 拡散モデルやその変種(整流フローなど)は、多様で高品質な画像を生成しますが、学習によって獲得する非常に曲率の高い生成経路に起因する、遅い反復サンプリングによって依然として制約を受けています。先行研究が示すように、高い曲率の重要な原因の1つは、ソース分布(標準ガウス)とデータ分布との間に独立性があることです。本研究では、この制約に対して相補的な2つの貢献によって取り組みます。まず、 exttt{-FC} という bappa による一般的な定式化
\kappa\texttt{-FC} を導入することで、標準ガウスの仮定から脱却することを試みます。これは、任意の信号 bappa を用いてソース分布を条件付けし、データ分布との整合性をより良くするものです。次に、生成経路の曲率を低減し、サンプリング効率を大幅に改善する、シンプルだが効果的な学習戦略である MixFlow を提示します。MixFlow は、固定された無条件分布と exttt{-FC} ベースの分布の線形混合に対してフローモデルを学習します。この単純な混合は、ソースとデータの整合性を改善し、必要なサンプリング手順数を減らしつつ生成品質を向上させ、さらに学習収束を大幅に加速します。平均すると、我々の学習手順は、固定されたサンプリング予算のもとで、標準の整流フローと比較して FID が 12c% 改善され、以前のベースラインと比較して 7c% 改善されます。コード: 8ref{https://github.com/NazirNayal8/MixFlow}{https://github.com/NazirNayal8/MixFlow}




