要旨: AI関連の事象はますます頻繁かつ深刻化しており、安全上の失敗から悪意ある者による悪用に至るまで、さまざまな形態をとっています。複雑な状況の中で、どの要素が有害な結果を引き起こしたのかを特定する、原因選択の問題は、責任を確立する上で重要な第一歩です。本論文は、AIシステムが有害な結果に関与する場合の因果連鎖構造における因果責任の一般的な認識を調査します。我々は、因果性、非難、予見可能性、および反事実的推論の判断を検討するための人間の実験を実施します。我々の発見は次のとおりです: (1) AIの主体性が中程度(人間が目標を設定し、AIが手段を決定する)または高い(AIが目標と手段を設定する)の場合、参加者はAIに対する因果責任をより大きく帰属させました。しかし、AIの主体性が低い場合(人間が目標と手段の両方を設定する場合)には、結果までの時間的距離にもかかわらず、両エージェントがそれを意図していたにもかかわらず、参加者は人間に対する因果責任をより大きく割り当て、自律性の影響が示唆されました; (2) 人間とAIの役割を入れ替えた場合、両エージェントが同じ行動をとっていても、参加者は一貫して人間をより因果的だと判断しました; (3) 連鎖の中で距離があるにもかかわらず、開発者は高度に因果的だと判断され、人間のユーザーへの因果帰属を減らしたが、AIにはそうしませんでした; (4) AIを大規模言語モデルとエージェント的要素に分解すると、エージェント的部分が連鎖の中でより因果的だと判断されました。全体として、我々の研究は、AIの因果寄与を誤用および不整合の両方の状況で人々がどのように認識するか、そしてこれらの判断が責任の割り当てにおける主要な役割を担うユーザーと開発者の役割とどのように相互作用するかについての証拠を提供します。これらの知見は、AIが引き起こす被害に対する責任の枠組みの設計に情報を提供し、直観的な判断が現実世界のAI関連事故をめぐる社会的および政策的議論をどのように形作るかを示す手掛かりとなります。
AIへの因果帰属をめぐる人間の認識—主体性、悪用、ミスマッチを横断して
arXiv cs.AI / 2026/3/17
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- 本論文は、AIを含む被害において、人々がどのように非難、因果関係、予見可能性、反事実推論を割り当てるかを、人間の実験を通じて調査している。
- AIのエージェンシーが高い(AIが目標と手段を設定する)ほど、AIの因果責任の認識が高まる一方、エージェンシーが低い場合は人間へ責任が移ることが分かった。
- 人間とAIの役割を逆転させても、参加者は人間をより因果的だと判断する傾向が見られ、人間中心の帰属バイアスの頑健性を示している。
- 開発者は、因果連鎖の遠位にあっても高い因果性で判断され、人間のユーザーへの帰属を減らすが、AIへの帰属は減らない。
- AIを言語モデルとエージェント的要素に分解すると、エージェント的部分がより因果的だと判断されることが示され、知覚される自律性が責任評価の主要な推進力であることを浮き彫りにし、AI被害の責任枠組みの形成に示唆を与える。
