MixFlow:混合ソース分布によって整流フローを改善する

arXiv cs.CV / 2026/4/13

📰 ニュースSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、整流フロー(および拡散スタイルの生成モデル)が、高度に曲率のある学習済み生成経路により反復的なサンプリングが遅くなる問題を抱えており、従来研究ではこれはソース分布とデータ分布の不整合に起因すると説明している、と主張している。
  • 標準的なガウス分布ソースの仮定を破り、一般化した条件付きソースの枠組み(「κ-FC」)を導入することで、任意の信号 κ をデータ分布に整合させることを提案する。
  • MixFlow は、固定された非条件付き分布と κ-FC に基づく条件付き分布からのサンプルを混合(線形結合)する学習戦略を導入し、経路の曲率を低減する。
  • 著者らは、同一のサンプリング予算のもとで、標準的な整流フローに対して平均 12% の FID 改善、また先行ベースラインに対して 7% の改善を含む、サンプリング効率と生成品質の向上を報告している。
  • 再現やさらなる実験を可能にするため、公的な GitHub リポジトリを通じてコードを公開している。

要旨: 拡散モデルやその変種(整流フローなど)は、多様で高品質な画像を生成しますが、学習によって獲得する非常に曲率の高い生成経路に起因する、遅い反復サンプリングによって依然として制約を受けています。先行研究が示すように、高い曲率の重要な原因の1つは、ソース分布(標準ガウス)とデータ分布との間に独立性があることです。本研究では、この制約に対して相補的な2つの貢献によって取り組みます。まず、 exttt{-FC} という bappa による一般的な定式化

\kappa\texttt{-FC} を導入することで、標準ガウスの仮定から脱却することを試みます。これは、任意の信号 bappa を用いてソース分布を条件付けし、データ分布との整合性をより良くするものです。次に、生成経路の曲率を低減し、サンプリング効率を大幅に改善する、シンプルだが効果的な学習戦略である MixFlow を提示します。MixFlow は、固定された無条件分布と exttt{-FC} ベースの分布の線形混合に対してフローモデルを学習します。この単純な混合は、ソースとデータの整合性を改善し、必要なサンプリング手順数を減らしつつ生成品質を向上させ、さらに学習収束を大幅に加速します。平均すると、我々の学習手順は、固定されたサンプリング予算のもとで、標準の整流フローと比較して FID が 12c% 改善され、以前のベースラインと比較して 7c% 改善されます。コード: 8ref{https://github.com/NazirNayal8/MixFlow}{https://github.com/NazirNayal8/MixFlow}