Abstract
本論文は、不確実性を考慮した説明可能な人工知能(UAXAI)を概観し、不確実性が説明パイプラインにどのように組み込まれるのか、またそのような手法がどのように評価されるのかを検討する。文献全体を通じて、不確実性の定量化に関する3つの反復的なアプローチ(ベイズ流、モンテカルロ、コンフォーマル手法)が現れるとともに、不確実性を説明に統合するための、独自の戦略も併存している。すなわち、信頼性を評価すること、モデルや説明を制約すること、そして不確実性を明示的に伝達することである。評価の実践は依然として分断されており、主としてモデル中心である。さらに、ユーザへの関心は限られており、信頼性に関する性質(例:キャリブレーション、カバレッジ、説明の安定性)の報告も一貫していない。近年の研究はキャリブレーションや分布に依存しない手法へと傾いており、説明者(エクスプレイナー)のばらつきを主要な懸念として認識している。我々は、UAXAIの進展には、不確実性の伝播、頑健性、そして人間の意思決定を結びつける統一的な評価原則が必要であると論じる。そのうえで、解釈可能性を信頼性と整合させる有望な道筋として、反事実的アプローチとキャリブレーション手法を強調する。