説明可能なAIには形式化が必要
arXiv stat.ML / 2026/3/31
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文は、説明可能なAI(XAI)が現状では厳密さに欠けており、学習データやテスト入力を含むMLモデルに関して意味のある問いに答えるためには形式化が必要だと主張する。
- 多くの広く使われているXAI手法は、予測対象と実際にはつながっていない入力に対して、特徴量の重要度を体系的に誤って帰属させうると述べている。
- こうした限界は、モデル/データの診断や修正、科学的発見の支援、有効な介入ターゲットの特定といった実務的タスクにおいてXAIの有効性を低下させる。
- 著者らは、根本的な問題は明確に定義された問題設定の不足と、説明の正しさに関する具体的な基準に結び付いた評価がないことにあると論じている。
- 意図された説明目標を形式的に定義し、「説明の正しさ(explanation correctness)」に対して、ユースケースに依存した客観的な指標を開発してXAI手法を検証することを推奨している。



