要旨: 組織が、単独のツールとしてではなく「チームメイト」としてAIをますます導入するようになるにつれ、道徳的に重大な誤りは、多くの場合、因果関係が曖昧なヒトとAIの協働ワークフローから生じます。私たちは、こうしたハイブリッド・エージェント環境において、人々が責任をどのように配分するのかを問いかけます。AI支援による融資の文脈(例:差別的な却下、不適切な融資、低害の申請エラー)を対象とした4つの実験(N = 1,801)を通して、参加者は一貫して、AIとペアを組む場合のほうが、別の人間とペアを組む場合よりも、人間の意思決定者により多くの責任を帰属させました(研究間で平均して、0-100尺度で10点)。このAIが誘発する人間の責任(AIHR)の効果は、害が大きい場合と小さい場合のいずれでも成り立ち、さらに、その当事者(問題の人間)が自分自身である場合のように自己都合的な責任転嫁(ブレーミングシフト)が起こり得る状況でも持続しました。プロセスの証拠は、AIHRがエージェントの自律性に関する推論によって説明されることを示しています。AIは制約された実行者(コンストレインド・インプリメンター)として見なされるため、人間が、裁量的な責任の既定の所在(デフォルトの拠点)になります。代替メカニズム(心の知覚;自己の脅威)は、この効果を説明しませんでした。これらの発見は、アルゴリズム回避、ハイブリッドなAIと人間の組織行動、そして技術における責任ギャップに関する研究を拡張し、AIと人間の連携が人間の責任を(薄めるのではなく)むしろ高め得ることを示すとともに、AIが組み込まれた組織における説明責任の設計への示唆を与えます。
AI-誘発型ヒューマン責任(AIHR)—AIと人間のチームにおける責任の所在
arXiv cs.AI / 2026/4/13
💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本論文は、非難の所在が曖昧になりやすいAIと人間のチームのワークフローにおいて、責任がどのように割り当てられるかを研究する。差別、不適切な融資、申請(書類)エラーを含むAI支援の融資シナリオを用いる。
- 合計4つの実験(参加者数 N=1,801)にわたって、人々はAIと組んだ場合、別の人間と組んだ場合よりも、意思決定を行った人間に有意に多くの責任を帰属させた(0〜100の尺度で約10ポイントの増加)。
- AI-誘発型ヒューマン責任(AIHR)の効果は、害の大きい状況でも小さい状況でも確認され、自己都合的な責任転嫁が起こりうると期待される場合でも持続した。
- プロセスの証拠から、AIHRはAIの自律性に関する認識によって生じることが示唆される。すなわち、AIは制約された実装者(実行装置)として見なされるため、人間が裁量的な責任のデフォルトの所在となり、「心の認知(マインド知覚)」や「自己への脅威」による説明ではなくなる。
- 著者らは、本結果がアルゴリズム嫌悪(algorithm aversion)や責任のギャップ(responsibility gaps)に関する研究を拡張し、AIと人間の協働(AI-human teaming)が人間の説明責任を高め得ることを示すと論じている。これにより、AIを活用する組織における説明責任の設計に示唆を与える。




