学習理論を用いた人間中心型XAIの進化:将来展望と課題

arXiv cs.AI / 2026/4/23

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • AIシステムが大規模化・複雑化するにつれてAIの透明性を高める「説明」の難しさも増しており、なぜ説明するのか/何を説明すべきかという問いが重要になると論じています。
  • XAI(Explainable AI)のライフサイクルに学習理論を取り込み、AIの説明を人間の学習の仕組みに沿って設計することを提案しています。
  • 著者らは、人間の主体性(human agency)を高め、説明に伴うリスクの軽減を助けるために、学習者中心のアプローチが有効だと主張しています。
  • 学習者中心の枠組みを用いて、説明の評価・設計・評価方法に適用する際の機会と課題の両面を整理しています。

要旨: 人工知能(AI)システムが規模と複雑さを増し続けるにつれて、AIの透明性を求める課題の難しさも増大しています。巨大なモデルや複雑なAIシステムが当たり前になった世界では、なぜ私たちはAIを説明するのか、そして何を説明すべきなのでしょうか。説明は複数の機能を果たしますが、複雑さに直面したとき、人間は学習を促すために説明を用いてきましたし、今後も用い続けるでしょう。本ポジションペーパーでは、学習理論をXAI(Explainable AI:説明可能なAI)のライフサイクルにどのように組み込めるか、また、学習者中心のアプローチを採用してAIの説明を評価・設計・評価(評価と評価の両方)する際に生じる主要な機会と課題について論じます。これまでの研究に基づき、学習者中心のアプローチによる説明可能なAI(XAI)は、人間の主体性を高め、XAIに伴うリスクの低減を容易にし、人間中心のXAI実践を発展させることができると主張します。