FlowGuard:線形潜在デコーディングによる拡散モデルの生成過程内安全検出の軽量化に向けて

arXiv cs.CV / 2026/4/10

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • FlowGuardは、画像生成の前後だけでなく、拡散モデルの生成過程(denoising)中にNSFW/危険な内容を検出するための、軽量でモデル横断的なフレームワークとして提案される。
  • 扱うのは、初期のdenoisingステップでは重いノイズを含む潜在拡散(latent diffusion)の課題であり、安全に関わる信号を効率よく回復するために、新しい線形の潜在デコーディング近似を用いる。
  • さらに、カリキュラム学習を組み込み、学習の安定化を図り、生成過程の中間ステップ全体で効果的な安全検出を可能にする。
  • 9種類の拡散バックボーンをカバーするクロスモデルのベンチマークでの実験では、生成過程内のNSFW検出が、分布内および分布外の両方で改善され(F1スコアが30%以上向上)、その有効性が示された。
  • 報告されている効率改善は大きく、標準的なVAEデコーディングと比べて最大GPUメモリを97%以上削減し、投影時間を8.1秒から0.2秒へと短縮している。さらに、危険な内容を早期に検出できれば、拡散ステップ数を少なくできる可能性もある。

要旨: 拡散ベースの画像生成モデルは急速に進歩してきましたが、生成しうるNot-Safe-For-Work(NSFW)コンテンツによって安全性リスクが生じます。既存のNSFW検出手法は主に、画像生成の前または後のいずれかで動作します。事前生成(pre-generation)手法はテキストプロンプトに依存しており、プロンプトの安全性と画像の安全性の間にあるギャップに苦戦しています。事後生成(post-generation)手法は最終出力に対して分類器を適用しますが、中間のノイズが多い画像には適していません。これに対処するために、我々は中間の脱ノイズ過程を検査する、モデルをまたいだ生成中(in-generation)検出フレームワークであるFlowGuardを提案します。これは、初期段階のノイズが視覚的な手がかりを隠してしまう潜在拡散(latent diffusion)では特に困難です。FlowGuardは、潜在デコーディングに対する新しい線形近似を採用し、学習を安定化するためのキュリキュラム学習アプローチを活用します。不安全な内容を早期に検出することで、FlowGuardは不要な拡散ステップを削減し、計算コストを削減します。9つの拡散ベースのバックボーンにまたがる我々のクロスモデル・ベンチマークでは、in-distributionおよびout-of-distributionの両設定において、生成中のNSFW検出に対するFlowGuardの有効性が示されました。既存手法に対してF1スコアで30%以上上回り、さらに、標準的なVAEデコーディングと比べて最大97%以上のピークGPUメモリ需要を削減し、射影(projection)時間を8.1秒から0.2秒へと短縮するなど、変革的な効率向上も実現しています。