説明可能なパターン認識における統制された摂動下での根拠(ラショネール)安定性の実証的特性評価
arXiv cs.AI / 2026/4/7
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文は、同一ラベルを共有する入力間で、かつラベルを保持する摂動下での根拠(説明)の安定性を定量化する新しい指標を提案し、インスタンス中心のXAI評価におけるギャップに対処する。
- この指標は、事前学習済みBERTモデルをSST-2に適用して計算したSHAPベースの特徴重要度を用いて実装し、RoBERTa、DistilBERT、IMDBにまたがる頑健性チェックを行う。
- 指標は、SHAP値ベクトルのコサイン類似度を測定することで、特定の特徴への過度な依存や、類似した予測に対する推論のドリフトのような、説明の挙動の不整合を検出する。
- 実験では、この指標が誤って整合しない予測や、説明における不整合を識別できるかを検証し、標準的な忠実性(fidelity)指標とベンチマークする。
- 本研究には公開されたコードベースが含まれており、信頼できるパターン認識システムにおける根拠安定性のより頑健な検証のためのフレームワークとして位置づけられている。




