AI Navigate

検索としての帰属: モデル非依存のAI生成画像帰属

arXiv cs.CV / 2026/3/12

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • 本論文は法医学におけるAI生成画像の真正性検証が高まる課題を特定し、従来のモデル依存の帰属手法は未知の生成器に対応するのが困難であると指摘する。
  • それは、モデルに依存しないフレームワーク Low-bIt-plane-based Deepfake Attribution(LIDA)を提案し、帰属を従来の画像分類ではなくインスタンス検索問題として位置づける。
  • LIDAはLow-Bit Fingerprint Generationモジュールを活用し、教師なし事前学習に続くFew-Shot帰属適応を用いて、ディープフェイク検出と画像帰属のゼロショットおよび少数ショット設定での最先端の性能を達成している。
  • LIDAのコードはGitHubのhttps://github.com/hongsong-wang/LIDAで入手可能です。
AIGC技術の急速な進展により、画像の法医学は前例のない課題に直面する。従来の手法は、急速に進化する画像生成技術によって生成される、ますます現実的になる画像には対処できない。AI生成画像の識別とそのソースモデルの帰属を促進するため、生成画像のウォーターマーク付与とAI生成画像の帰属が近年、主要な研究焦点として浮上している。しかし、既存の手法はモデル依存であり、生成モデルへのアクセスを必要とし、新規・未知の生成器に対する一般性と拡張性に欠ける。これらの制限に対処するため、本研究は、AI生成画像の帰属を従来の画像分類問題としてではなく、インスタンス検索問題として定式化する新しいパラダイムを提案する。効率的なモデル非依存フレームワーク、Low-bIt-plane-based Deepfake Attribution(LIDA)を提案する。LIDAへの入力はLow-Bit Fingerprint Generationモジュールによって生成され、教師なし事前学習に続くFew-Shot帰属適応を含む。包括的な実験は、LIDAがゼロショットおよびFew-Shot設定の下でディープフェイク検出と画像帰属の最先端性能を達成することを示している。コードは https://github.com/hongsong-wang/LIDA にある。