制御可能な画像編集を通じた現実世界の車両検知器に対するカモフラージュ攻撃

arXiv cs.CV / 2026/3/23

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • 論文は、条件付き画像編集問題として捉えることで車両検出器に対するカモフラージュ攻撃を提示し、画像レベルおよびシーンレベルのカモフラージュ生成戦略の両方を検討している。
  • ControlNetを微調整して、実画像上に直接カモフラージュ車両を合成し、車両の構造を保持しつつ外観を変更することを目指す。
  • 車両の構造的忠実性、スタイルの一貫性、そして敵対的有効性を同時に担保する統一目的関数。
  • COCOおよびLINZの実験は、本手法がAP50を38%以上低下させ、従来手法と比較して人間が感じる潜伏性を改善することを示した。
  • 未知のブラックボックス検出器にも一般化し、物理世界への移行性を示す。
  • プロジェクトページが公開されている。

概要: 深層ニューラルネットワーク(DNN)はコンピュータビジョン分野で顕著な成功を収めている一方で、敵対的攻撃にはなお高い脆弱性を抱えている。その中でも、カモフラージュ攻撃は物体の可視外観を操作して検出器を欺きつつ、人間には見えにくい状態を保つ。本稿では、車両のカモフラージュ攻撃を条件付き画像編集問題として定式化する新しい枠組みを提案する。具体的には、画像レベルとシーンレベルのカモフラージュ生成戦略の双方を探索し、実画像上で直接カモフラージュされた車両を合成するために ControlNet を微調整する。我々は、車両の構造的忠実性、スタイルの一貫性、および敵対的有効性を共同で保証する統一目的関数を設計する。COCOデータセットとLINZデータセットを用いた広範な実験は、提案手法が従来のアプローチと比較して攻撃効果を著しく向上させ、AP50が38%を超えて低下することにつながることを示すとともに、車両構造の保持をより良く行い、人間の知覚による潜伏性を改善している。さらに、未知のブラックボックス検出器にも効果的に一般化し、物理世界への転移性も有望である。プロジェクトページは https://humansensinglab.github.io/CtrlCamo にあります。