アクセシブルで検証済みのXAI説明のための2段階LLMフレームワーク
arXiv cs.AI / 2026/4/15
💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本論文は、LLMが生成したXAIナラティブはしばしば正確性・忠実性・完全性の保証を欠いており、既存の評価は主観的であるか事後的であるため、エンドユーザを保護するには不十分だと主張する。
- Explainer LLMによりXAI出力を自然言語へ変換し、Verifier LLMが忠実性・首尾一貫性・完全性・幻覚(ハルシネーション)リスクを検査する「2段階LLMメタ検証フレームワーク」を提案する。
- 反復的なリフィード(再投入)ループでは、Verifierのフィードバックを用いてナラティブを改良し、説明を事後にスコアリングするだけでなく信頼性の向上を目指す。
- 5つのXAI手法とデータセットにわたる実験、および3系統のオープンウェイトLLMを用いた検証により、検証は信頼できない説明をふるい分けるのに役立つとともに、生のXAI出力を用いる場合よりも言語的アクセシビリティを改善することを示す。
- 著者らは改良中のEntropy Production Rate(EPR)を分析し、検証者からのフィードバックがExplainerをより安定で首尾一貫した推論へと導く度合いが、反復に伴って高まっていくと結論づける。




