画像の真正性判断における深層ネットワークのモデル挙動からの説明の非識別性
arXiv cs.CV / 2026/4/9
💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本論文は、人間の画像の真正性判断を予測する深層ニューラルネットワークが、単に挙動と相関するだけでなく、説明としても頑健かつ識別可能なものを生成するかどうかを検討する。
- 複数の凍結済み視覚モデルに対する実験では、予測精度はノイズの上限(noise ceiling)に対して約80%まで到達し得る一方で、説明の質はモデルによって異なり、例えばVGGのようなモデルは真正性に固有の要因というよりも一般的な画像品質を追跡しているように見える。
- 検証した帰属(attribution)手法(Grad-CAM、LIME、マルチスケールのピクセル・マスキング)は、アーキテクチャ内では安定した帰属マップを生成することが示され(特にEfficientNetB3やBarlow Twinsで顕著)、また「より真正である」と判断された画像ほど一貫性が高い。
- しかし、予測性能が同程度であっても、異なるアーキテクチャ間での帰属の一致は弱く、説明が信頼できる形で識別可能ではないことを示している。
- 著者らは真正性予測を改善するためにアンサンブルを用いて画像レベルの帰属を得るが、それでも、成功した行動(挙動)予測が、説明が根底にある認知メカニズムを反映していることを意味するわけではない、という結論に至っている。



