広告

ZEUS: 二次オーダー予測器のみで拡散モデルを加速する

arXiv cs.LG / 2026/4/3

📰 ニュースSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 拡散ベースのノイズ除去ジェネレータは、サンプリングで多くの反復的なノイズ除去器呼び出しが必要なため遅くなりがちであり、ステップスキップや疎化(スパージファイ)によって推論を高速化する学習不要(training-free)手法が動機づけられている。
  • 本論文は、既存の学習不要による強力なアクセラレータがしばしば誤差を増幅する高次オーダー予測器に依存しており、またアーキテクチャ変更はデプロイを複雑にし得ると主張する。
  • そこで、連続したスキップの安定化と、連続した外挿(バックトゥバックのエクストラポレーション)失敗の回避のためのインタリーブ(交互)スキームを用い、二次オーダー予測器を採用するZEUSを提案する。
  • ZEUSは、特徴キャッシュやアーキテクチャの変更を行わず、実質的にゼロオーバーヘッドとなるよう設計されており、さまざまなモデル・バックボーン、目的関数、ソルバに対して互換性を維持する。
  • 画像および動画生成に関する実験では、知覚品質を維持しつつエンドツーエンドで最大3.2倍の高速化を達成し、近年の学習不要ベースラインより改善している。コードはGitHubで公開されている。

要旨: ノイズ除去型生成モデルは高忠実度な生成を実現しますが、サンプリング中に多数の反復的なノイズ除去器呼び出しが必要となるため、推論のレイテンシによってボトルネック化しています。学習不要の加速手法は、モデル構造を疎にするか、サンプリング軌道を短縮することでレイテンシを低減します。現在の学習不要の加速手法は、必要以上に複雑です。すなわち、高次の予測器は過激なスピードアップの下で誤差を増幅し、アーキテクチャの変更はデプロイを妨げます。2倍を超える加速では、ステップスキップにより構造的な不足(スカース)—局所ウィンドウあたり最大で新たな評価が1回のみ—が生じ、計算された出力とその後退差分(backward difference)だけが因果的に裏付けられた情報になります。これを踏まえ、我々は第2次(2次)予測器を用いてノイズ除去器の評価回数を削減することを予測し、さらに連続する大幅スキップの安定化のために、連続した外挿(back-to-back extrapolations)を避けるインタリーブ(交互)方式を用いた加速手法ZEUSを提案します。ZEUSは本質的にオーバーヘッドをほぼ追加せず、特徴キャッシュも不要で、アーキテクチャ変更も行いません。また、異なるバックボーン、予測目的、ソルバ選択と互換性があります。画像生成および動画生成において、ZEUSは近年の学習不要ベースラインに対して一貫して速度と忠実度の性能を改善し、知覚品質を維持しながらエンドツーエンドで最大3.2倍の速度向上を達成します。コードは以下で公開しています: https://github.com/Ting-Justin-Jiang/ZEUS。

広告