CoAX:認知指向の帰属説明(Cognitive-Oriented Attribution eXplanation)ユーザーモデル:AIの説明に対する人間理解のモデル化
arXiv cs.AI / 2026/5/1
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- この論文は、Explainable AI(XAI)の説明が、既存の取り組みがあるにもかかわらず実利用ではユーザーの理解や意思決定を十分に改善できないのはなぜかを検討している。
- 構造化データ(表形式)に対する認知に基づく推論に焦点を当て、XAI手法(なし、特徴の重要度、特徴帰属)ごとに、AIの判断を先読みするフォワードシミュレーション課題で推論戦略を比較している。
- フォーマティブなユーザースタディで推論戦略を引き出し、サマティブなユーザースタディで意思決定データを収集することで、人間の振る舞いを評価の土台にしている。
- 認知モデリングにより各戦略の背後にあるプロセスを実装し、人間の意思決定との整合性を機械学習ベースラインと比較した結果、提案する認知モデルの方がよりよく一致することを見いだしている。
- フィットした認知モデルを用いて仮説を生成し、費用のかかる人間被験者実験への依存を下げられることも示し、今後のより使いやすく解釈可能なXAI説明の開発に資する知見を与えている。




