生成的ドリフティングは密かにスコアマッチングである:スペクトル的および変分的視点

arXiv cs.LG / 2026/3/11

Ideas & Deep AnalysisModels & Research

要点

  • 本論文は生成モデルにおけるドリフティングの理論的基盤を提供し、ガウスカーネル下でドリフト演算子が平滑化された分布上のスコア差に等しいことを示す。
  • 分布の等価性、カーネルの選択、安定した訓練のためのストップグラディエント演算子の必要性に関するドリフト演算子の重要な未解決問題に取り組む。
  • スペクトル解析を用いて、プラズマ運動論におけるランドー減衰に類似した周波数依存の収束挙動を明らかにし、ラプラシアンカーネルの経験的優位性を説明し、指数的バンド幅アニーリングを提案して収束を加速させる。
  • ドリフティングを平滑化されたKLダイバージェンスのワッサースタイン勾配流として形式化し、ストップグラディエント演算子が勾配流の保証を維持する役割を果たすことを証明し、Sinkhornダイバージェンスドリフトなどの新しいドリフト演算子の構築を可能にする。
  • 全体として、本論文はドリフティング手法をスコアマッチングのファミリー内に位置づけ、生成モデルにおけるカーネル選択と訓練の安定性に関する重要な理論的洞察と実用的ガイドラインを提供する。

コンピュータ科学 > 機械学習

arXiv:2603.09936 (cs)
[2026年3月10日 提出]

題目:Generative Drifting is Secretly Score Matching: a Spectral and Variational Perspective

Generative Drifting is Secretly Score Matching: a Spectral and Variational Perspective という題目の論文(Erkan Turan と他1名の著者による)のPDFを表示
PDFを表示 HTML(実験的)
要旨:漂流(Drifting)による生成モデリングは、カーネルに基づく漂流演算子を用いることで、最近、1ステップ画像生成における最先端の成果を達成した。しかしその成功は大部分が経験的であり、その理論的基盤は十分に理解されていない。本論文では、次の観察を行う。すなわち、 \emph{ガウス・カーネルの下では、漂流演算子は平滑化された分布に対するスコア差(score difference)そのものに一致する}。 この洞察により、元の研究で未解決として残されていた主要な問いの3つすべてに答えることができる。(1)漂流が消失したときに分布の等価性が保証されるかどうか($V_{p,q}=0\Rightarrow p=q$)、(2)カーネルをどのように選ぶべきか、(3)なぜストップグラディエント演算子が安定な学習に不可欠なのか、である。これらの観察は、漂流をよく研究されたスコアマッチングの枠組みの中に位置付け、豊かな理論的見通しを可能にする。 McKean-Vlasovダイナミクスを線形化し、それらをフーリエ空間で調べることで、プラズマの運動論における\emph{ランダウ減衰(Landau damping)}に匹敵する周波数依存の収束時定数を明らかにする。すなわち、ガウス・カーネルでは指数関数的な高周波のボトルネックが生じるため、ラプラシアン・カーネルが経験的に好まれることを説明できる。さらに、収束時間を$ \exp(O(K_{\max}^2))$ から$O(\log K_{\max})$へと短縮する、指数的帯域アニーリングのスケジュール$ \sigma(t)=\sigma_0 e^{-rt}$ も提案する。最後に、漂流を平滑化されたKLダイバージェンスのワッサースタイン勾配流として形式化することで、ストップグラディエント演算子が、JKOスキームによって要請される凍結場(frozen-field)離散化から直接導かれることを証明し、それを取り除くと、学習が任意の勾配流保証から切り離されてしまうことを示す。この変分的観点は、シンクホーン・ダイバージェンスを用いた漂流で実演されるように、新しい漂流演算子を構成するための一般的なテンプレートも提供する。
分野: 機械学習 (cs.LG)
引用: arXiv:2603.09936 [cs.LG]
  (この版については arXiv:2603.09936v1 [cs.LG] )
  https://doi.org/10.48550/arXiv.2603.09936
詳しく学ぶにはフォーカス
DataCite による arXiv 発行 DOI

提出履歴

差出人: Erkan Turan [メールを見る]
[v1] 2026年3月10日(火) 17:30:35 UTC (1,347 KB)
フルテキストのリンク:

論文へのアクセス:

現在の閲覧コンテキスト:
cs.LG
返却形式: {"translated": "翻訳されたHTML"}
次の方法で閲覧する:
cs
BibTeX の引用をエクスポート 読み込み中...

BibTeX 形式の引用

×
提供データ:

ブックマーク

BibSonomy ロゴ Reddit ロゴ
書誌ツール

書誌および引用ツール

書誌エクスプローラーの切り替え
書誌エクスプローラー (エクスプローラーとは?)
Connected Papers の切り替え
Connected Papers (Connected Papers とは?)
Litmaps の切り替え
Litmaps (Litmaps とは?)
scite.ai の切り替え
scite スマート引用 (スマート引用とは?)
コード、データ、メディア

この記事に関連するコード、データ、メディア

alphaXiv の切り替え
alphaXiv (alphaXiv とは?)
コードへのリンクの切り替え
論文のための CatalyzeX コード検索 (CatalyzeX とは?)
DagsHub トグル
DagsHub (DagsHubとは?)
GotitPub トグル
Gotit.pub (GotitPubとは?)
Huggingface トグル
Hugging Face (Huggingfaceとは?)
コードへのリンク トグル
Papers with Code (Papers with Codeとは?)
ScienceCast トグル
ScienceCast (ScienceCastとは?)
デモ

デモ

Replicate トグル
Replicate (Replicateとは?)
Spaces トグル
Hugging Face Spaces (Spacesとは?)
Spaces トグル
TXYZ.AI (TXYZ.AIとは?)
関連論文

レコメンダーと検索ツール

Influence Flowerへのリンク トグル
Influence Flower (Influence Flowerとは?)
Core レコメンダー トグル
CORE レコメンダー (COREとは?)
IArxiv レコメンダーの切り替え
IArxiv Recommender (IArxiv とは?)
arXivLabs について

arXivLabs: コミュニティの協力者と取り組む実験的プロジェクト

arXivLabs は、協力者が当社のウェブサイト上で直接、新しい arXiv の機能を開発し共有できるようにするためのフレームワークです。

arXivLabs に取り組む個人および組織は、オープン性、コミュニティ、卓越性、ユーザーデータのプライバシーという当社の価値観を受け入れ、これを認めています。arXiv はこれらの価値観にコミットしており、それらを遵守するパートナーとのみ連携します。

arXiv のコミュニティに価値を追加するプロジェクトのアイデアはありますか? arXivLabs について詳しく知る