離散メンフロー学習カリキュラム

arXiv cs.LG / 2026/4/13

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文では、「離散メンフロー」(Discrete Meanflow, DMF)学習カリキュラムを提案し、メンフロー目的関数の離散化を活用することで、より安定した学習のための整合性(consistency)特性を獲得する。
  • 事前学習済みのフローモデルから出発して、DMFはメンフロー学習に必要な計算量とデータ量を削減しつつ、強力な1ステップ画像生成性能を目標とする。
  • 本手法は、CIFAR-10においてわずか2000エポックで1ステップFID 3.36を達成しており、従来のメンフロー手法が極めて大きな学習予算を必要としていたことと対照的である。
  • 著者らは、既存のフローモデルからのファインチューニングを伴う場合には、DMFのような高速カリキュラムが、将来の1ステップ・メンフローに基づく生成モデルを効率的に学習できる可能性があると示唆している。

概要: フローベースの画像生成モデルは、多段階のサンプリング手順を用いると学習が安定し、高品質なサンプルを生成します。ワンステップ生成モデルは高品質な画像サンプルを生成できますが、しばしば不安定な学習ダイナミクスを示すため、最適化が難しいことがあります。Meanflow(平均流)モデルは、優れた少ステップ(few-step)サンプリング性能と、わくわくするようなワンステップ(one-step)サンプリング性能を示します。特に、このような性能を達成するMeanFlowモデルには、非常に大きな学習予算が必要でした。我々は、Meanflow目的関数のある特定の離散化に注目し、それを活用することで、整合性(consistency)という性質を得られることを見出します。そして、この性質を「``Discrete Meanflow''(DMF)トレーニング・カリキュラム」として定式化します。あらかじめ学習済みのフローモデルで初期化されたDMFカリキュラムは、わずか2000エポックでCIFAR-10においてワンステップFIDを3.36で到達します。我々は、Meanflowモデルのより高速な学習カリキュラム、特に既存のフローモデルから微調整したものが、将来のワンステップ例に対する効率的な学習手法を促進すると見込んでいます。

離散メンフロー学習カリキュラム | AI Navigate