医療画像診断におけるAIによる説明可能性のユーザー中心分析

arXiv cs.CV / 2026/5/6

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、医療領域でAIが高性能を示していても実運用で使われにくい理由が、判断の根拠が分かりにくいことにあると指摘しています。
  • 本研究では、テキスト・ビジュアル・マルチモーダルの説明可能AI(XAI)手法を、医師がどれだけ理解しやすいかという観点で比較・評価します。
  • 医師33名への調査では、「AIが診断を説明すべきこと」の重要性に強い合意があり、88%が同意し、そのうち64%が強く同意したと報告されています。
  • 評価した手法の中では、バウンディングボックスとレポートの組み合わせが、理解しやすさ・網羅性・速度・実用性の面で最も高く評価されました。
  • さらに、誤ったAI診断に対しては、テストしたXAI手法があっても50%が誤診を信頼してしまう可能性があるなど、負の影響も示唆されています。

概要: 近年、医療領域におけるAIシステムは大きく進歩してきました。しかし、人間よりも優れた性能を発揮するにもかかわらず、実際の運用ではほとんど使われていません。これは、AIがどのように判断しているのかが明確でないことが多いためです。判断プロセスの最適な説明と可視化はしばしば欠けています。そこで本研究では、医用画像診断のための最新の最先端テキスト、視覚、マルチモーダルの説明可能な人工知能(XAI)手法について、ユーザー中心の比較分析を行いました。33名の医師を対象に行った調査の結果、88%がAIが診断を説明することは重要だと回答し、64%はさらに強く同意していました。評価した観点である理解しやすさ、網羅性、速度、適用可能性において、バウンディングボックスとレポートを組み合わせた手法は、他の検証したXAI手法よりも良い評価でした。さらに、誤ったAIに基づく医用画像診断がもたらし得る負の影響の可能性についても検証し、すべての検証したXAI手法の中で、誤ったAI診断を信頼した参加者が50%に達することを見出しました。