広告

CNNの事後的自己説明

arXiv stat.ML / 2026/3/31

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、標準的なCNNは自己説明モデル(SEMs)として再定式化できると主張するが、内蔵された「プロトタイプ」が基となるデータ表現を確実に捉えるわけではない。

Abstract

標準的な畳み込みニューラルネットワーク(CNN)は数学的に自己説明可能モデル(SEM)として再解釈できるものの、それらに内蔵されたプロトタイプはそれ自体ではデータを正確に表現しません。最終の線形層をk-meansベースの分類器に置き換えることで、性能を損なうことなくこの制限を解消できます。本研究では、分類器、エンコーダの最終出力(B4)、および中間特徴活性の組合せに対する、k-meansベースの事後的説明のための共通の形式化を提示します。後者のアプローチは、畳み込みの受容野の空間的な一貫性を活用して、概念ベースの説明マップを生成し、これを勾配なしの特徴帰属マップによって裏付けます。ResNet34による実証的評価では、最後の3つのブロック(B234)から得られるような、より浅い、あまり圧縮されていない特徴活性を用いると、意味的忠実性と、予測性能のわずかな低下との間でトレードオフが生じることが示されます。

広告