AttDiff-GAN:顔の属性編集のためのハイブリッド拡散-GANフレームワーク
arXiv cs.CV / 2026/4/24
📰 ニュースModels & Research
要点
- 本論文は、非対象の属性を保持しつつ高い現実感を実現することを目標とした、顔の属性編集のためのハイブリッド拡散-GANフレームワーク「AttDiff-GAN」を提案する。
- GANの1ステップの敵対学習と、拡散の多ステップ復元(denoising)の間にある統合上の難しさに対し、属性操作と画像生成を分離し、特徴レベルの敵対学習で明示的な属性操作を学習する。
- セマンティック・ディレクションに基づく編集への依存を避け、学習した属性操作を特徴として用い、その特徴で拡散過程を誘導することで高精度な編集を行う。
- スタイルと属性の対応(アラインメント)を高めるために、顔の事前知識をスタイル生成に取り入れるPriorMapperと、Transformerでグローバルな意味関係をより精密に抽出するRefineExtractorを導入する。
- CelebA-HQでの実験では、定性的・定量的評価の両面で、AttDiff-GANが従来の最先端手法よりも対象属性の編集精度と非対象属性の保持の両方で優れていることが示される。


