フローマッチングの驚くべき安定性

arXiv cs.CV / 2026/4/20

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本研究は、フローマッチング系の生成モデルにおいて、アーキテクチャ選択やデータセット規模が生成サンプルの品質・多様性に与える影響を調べています。
  • CelebA-HQでの実験では、学習データを50%削減してもフローマッチングが安定しており、品質と多様性が維持されることが示されています。
  • 削減は潜在表現に対してわずかな影響しか与えず、同じシードではフルデータ学習モデルと削減データ学習モデルが視覚的に似た出力を生成します。
  • アーキテクチャや学習設定を変えても同様の安定性が観測され、学習された潜在マッピングがさまざまな摂動に対して頑健であることを示唆しています。

要旨: 高品質かつ多様なサンプルを生成する深層生成モデルの成功は、しばしば特定のアーキテクチャや大規模な学習データセットに起因すると考えられています。本論文では、これらの要因が
\emph{フローマッチング} モデルによって生成されるサンプルの品質と多様性に与える影響を調査します。驚くべきことに、CelebA-HQ データセットに対する本研究の実験では、データセットの 50\% を剪定(pruning)しても、フローマッチングは安定したままでした。つまり、生成サンプルの品質と多様性は維持されます。さらに、剪定は潜在表現に与える影響がわずかであり、すなわち、全データセットで学習したモデルおよび剪定したデータセットで学習したモデルによって、同一のシードから生成されたサンプルは、視覚的に非常に近い出力にマッピングされます。アーキテクチャや学習設定を変更しても同様の安定性が観察され、これらの変更の下でも潜在表現が維持されることが分かりました。
本研究の結果は、この安定性が実際にどれほど強いものであるかを定量化し、さまざまな擾乱(perturbations)に対するフローマッチングモデルの信頼性を説明する助けになります。