広告

TTE-CAM:事前学習済みブラックボックスCNNに対するテスト時説明可能性のための内蔵クラス活性化マップ

arXiv cs.CV / 2026/3/31

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • TTE-CAMは、事前学習済みのブラックボックスCNNを「自己説明可能」なモデルへ変換し、テスト時に忠実な説明(faithful explanations)を生成する枠組みを提案している。
  • 既存手法の「説明の忠実性」と「予測性能」のトレードオフを、分類ヘッド部分の畳み込み置換と元重みからの初期化によって緩和することを狙っている。
  • 置換後もブラックボックスCNNの予測性能を維持しつつ、ポストホック説明手法と同等レベルの説明性能(定性的・定量的)を示すとしている。
  • 医療画像解析のような高リスク領域で、モデルの不透明性が導入障壁になっている点への実用的な解決アプローチとして位置づけられている。
  • 実装コードがGitHubで公開されており、研究・再現・適用を容易にしている。

Abstract

畳み込みニューラルネットワーク(CNN)は医用画像解析において最先端の性能を達成している一方で不透明性が残り、意思決定の重要度が高い臨床現場での導入を制限している。既存のアプローチには本質的なトレードオフがある。すなわち、事後的手法は忠実でない近似的な説明を提供し、一方で本質的に解釈可能なアーキテクチャは忠実だが、多くの場合予測性能を犠牲にする。われわれは、このギャップを埋めるテスト時フレームワークであるTTE-CAMを提案する。これは、分類ヘッドを畳み込みベースで置き換えることで、事前学習済みのブラックボックスCNNを自己説明可能モデルへ変換するものであり、置換は元の重みから初期化して行う。その結果得られるモデルは、ブラックボックスとしての予測性能を維持しつつ、事後的手法と競合するほどの、定性的および定量的に忠実な組み込み説明を提供する。コードは https://github.com/kdjoumessi/Test-Time-Explainability で公開されている

広告