広告

盲ろうおよび弱視ユーザーのための説明可能AI:エージェント的時代における信頼・モダリティ・解釈可能性のナビゲーション

arXiv cs.AI / 2026/4/2

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、説明可能AI(XAI)が依然として主に視覚インターフェースを前提に設計されており、盲ろうおよび弱視(BLV)ユーザーには信頼できる支援的AIのためのアクセス可能な説明が欠けていると主張している。
  • マルチステップで長期的な意思決定を行うエージェント的システムへの移行は、見逃された誤りを訂正しにくくするため、より良い解釈可能性と説明責任の必要性が高まることを指摘している。
  • インタビューと研究分析を通じて、著者らはモダリティのギャップを特定する。すなわち、BLVユーザーは会話的な説明を重視する一方で、AIが失敗した際に「自責(self-blame)」を感じることが多い。
  • 本研究は、エージェント的な設定におけるアクセス可能なXAIに関する研究アジェンダを提案し、多モーダル・インターフェース、非難(blame)を考慮した説明設計、そして参加型(ユーザーが関与する)開発を重視している。

要旨:説明可能な人工知能(XAI)は、信頼性と説明責任を確保するために重要である。しかし、その開発はいまだに主として視覚的に行われている。盲目および弱視(BLV)のユーザにとって、アクセス可能な説明が欠けていることは、AI駆動の支援技術を自立して利用するうえでの根本的な障壁となる。この問題は、AIシステムが単一の問い合わせツールから、自律的なエージェントへと移行し、多段階の行動を取り、長いタスクの地平にわたって重大な意思決定を行うようになるにつれて、いっそう深刻化する。そこでは、検出されない単一の誤りが、いかなるフィードバックも得られる前に不可逆的に連鎖してしまう可能性がある。本論文は、ユーザへのインタビューと当時の研究を包括的に分析することで、BLVコミュニティに固有のXAI要件を調査する。環境認識と意思決定支援における利用のパターンを検討することで、大きなモダリティのギャップを特定する。経験的な証拠は、BLVユーザが対話型の説明を強く価値あるものとしている一方で、AIの失敗に対して「自責(self-blame)」を感じることがしばしばあることを示している。本論文は、エージェント型システムにおけるアクセス可能な説明可能AIのための研究アジェンダを提示して結論とし、多様モーダルなインタフェース、非難(blame)への気づきを踏まえた説明設計、そして参加型の開発を提唱する。

広告