要旨: 説明可能AI(XAI)に関する研究は、しばしばモデルの予測を説明することに焦点を当ててきました。より最近では、入力特徴に起因させることで予測の不確実性を説明する(不確実性アトリビューション)手法が提案されています。しかし、これらの手法の評価は、異種の代理タスクと指標に依存しているため、一貫性がありません。その結果、比較可能性が損なわれています。私たちは、XAI評価として確立されたCo-12フレームワークに不確実性アトリビューションを整合させることで、この問題に対処します。正しさ、一貫性、連続性、コンパクト性という性質に対する具体的な実装を提案します。さらに、不確実性アトリビューションに特化した性質である「伝達(conveyance)」を導入します。これは、認識論的不確実性の制御された増加が、特徴レベルのアトリビューションに確実に伝播するかどうかを評価します。私たちは、表形式および画像データにおいて、不確実性定量化と特徴アトリビューション手法の組み合わせに対し、8つの指標で評価フレームワークを示します。実験の結果、勾配ベースの手法は一貫性と伝達の点で、摂動ベースのアプローチよりも一貫して優れていることが分かりました。一方で、多くの指標において、モンテカルロ・ドロップコネクトはモンテカルロ・ドロップアウトよりも優れています。ほとんどの指標はサンプルを跨いで手法を一貫して順位付けしますが、手法間の合意は低いままです。これは、不確実性アトリビューションの品質を十分に評価できる単一の指標は存在しないことを示唆しています。提案する評価フレームワークは、系統的な比較と不確実性アトリビューション手法の開発のための基盤を確立することで、知見の蓄積に貢献します。
単一の指標では全体像は語れない:不確実性の帰属のための多次元評価フレームワーク
arXiv cs.LG / 2026/3/26
💬 オピニオン
要点
- 本論文は、説明可能なAI(XAI)における不確実性の帰属手法は、事前の評価が異種のタスクと指標を用いているため手法同士を比較しにくく、その結果が比較不能になっていると主張する。