CoAX:認知指向の帰属説明(Cognitive-Oriented Attribution eXplanation)ユーザーモデル:AIの説明に対する人間理解のモデル化

arXiv cs.AI / 2026/5/1

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • この論文は、Explainable AI(XAI)の説明が、既存の取り組みがあるにもかかわらず実利用ではユーザーの理解や意思決定を十分に改善できないのはなぜかを検討している。
  • 構造化データ(表形式)に対する認知に基づく推論に焦点を当て、XAI手法(なし、特徴の重要度、特徴帰属)ごとに、AIの判断を先読みするフォワードシミュレーション課題で推論戦略を比較している。
  • フォーマティブなユーザースタディで推論戦略を引き出し、サマティブなユーザースタディで意思決定データを収集することで、人間の振る舞いを評価の土台にしている。
  • 認知モデリングにより各戦略の背後にあるプロセスを実装し、人間の意思決定との整合性を機械学習ベースラインと比較した結果、提案する認知モデルの方がよりよく一致することを見いだしている。
  • フィットした認知モデルを用いて仮説を生成し、費用のかかる人間被験者実験への依存を下げられることも示し、今後のより使いやすく解釈可能なXAI説明の開発に資する知見を与えている。

Abstract

説明可能なAI(XAI)は、AIモデルを使用する際にユーザーの理解と意思決定を改善することを目指します。しかし、XAIにおける革新があるにもかかわらず、近年のユーザー評価では、この目標はいまだとらえどころがないことが明らかになっています。人間の認知を理解することで、なぜユーザーがAIの説明を効果的に使うことに苦戦するのかを説明できる可能性があります。構造化データ(表形式)に関する推論に焦点を当て、異なるXAI手法(なし、特徴の重要度、特徴帰属)に対して、AIの意思決定を予測する意思決定課題(すなわちフォワード・シミュレーション)におけるさまざまな推論戦略を調べました。すなわち、i)形成的ユーザースタディから推論戦略を引き出し、ii)総括的ユーザースタディから意思決定を収集しました。認知モデリングを用いて、各推論戦略の背景にあるプロセスを実装し、それらが人間の意思決定とどの程度整合しているかを評価しました。その結果、提案モデルはベースラインの機械学習による代理指標よりも人間の意思決定によりよく適合し、どの推論戦略が(非)効果的であるかについての洞察を得ました。さらに、適合したモデルをどのように用いて仮説を立て、実際の参加者による研究では費用のかかる研究課題をどのように調査できるかを示します。この研究は、XAIに関する人間の理解のデバッグに貢献し、より使いやすく、より解釈可能なAI説明の将来の開発に役立てられます。