AIを数える方法: AIエージェントの個別化と責任
arXiv cs.AI / 2026/3/12
💬 オピニオンIdeas & Deep Analysis
要点
- 本論は、AIエージェントが急速に増え続ける中で、どの AI が特定の行為を引き起こしたかを説明責任のために特定することが不可欠であると主張する。一方で、AIはコピー・分裂・統合・群れのように動作し、消えることができ、多くの場合はモデルのアンサンブルとして機能するため、特定は困難である。
- 「薄い識別」(各AIの行為をある人間主体に結びつけること)と「厚い識別」(AIエージェントをエージェントとして識別する—安定した一貫した目標を持つ離散的で持続的な単位へ分類すること)を、責任の基礎として区別している。
- 「Algorithmic Corporation」または「A-corp」という、財産を所有し、契約を結び、自己の名で訴訟を起こすことができる法的虚構の存在を提案する。人間が所有するがAIによって運用される。
- A-corpは、薄い識別と厚い識別の問題を、AIの行為を所有者に結びつけることや出現的自己組織化を通じて解決し、目標の整合性を促すインセンティブを与える。
- 均衡において、インセンティブと選択の仕組みはA-corpを自己組織化させ、継続的で法的に読み取り可能な実体へと変え、責任のような法的インセンティブに合理的に応答する一貫した目標を持つ存在へと導く。
要旨: すぐに数百万のAIエージェントが経済全体に普及し、自律的に数十億の行動をとるだろう。必然的に、物事はうまくいかなくなる。人間は詐欺に遭い、傷つき、ひいては殺されることさえある。法は来る波をなんとか統治しなければならない。しかし、AIが害を与えるとき、誰が責任を負うべきかを答える前に最初に問われるべきは「どのAIがそれをしたのか?」である。AIを識別することは異常に難しい。AIには身体がない。彼らはコピー、分裂、統合、群れになって動く、そして任意に消えることができる。今日でさえ、「単一の」AIエージェントは、多くの場合、複数のモデルに基づくインスタンスのアンサンブルだ。AIの能力が進歩するにつれて、複雑さはさらに増す。本論は、AIを識別する法的問題を総合的に診断した初めての論文である。二種類の同一性が求められる。「薄い(thin)」と「厚い(thick)」だ。薄い識別は、すべてのAIの行為をある人間主導に結びつけることを意味し、AIエージェントを作成・使用する人間を説明責任の対象とするうえで不可欠である。厚い識別は、AIエージェントをエージェントとして識別する—数百万のAI実体を、安定し一貫した目標を持つ離散的で継続的な単位へ分類することを意味し、主従問題が人間のAIの完全な制御を妨げる場合に不可欠だ。本論はまた解決策を提示する。「Algorithmic Corporation(A-corp)」—財産を所有し、契約を結び、自己の名で訴訟を起こすことができる法的虚構の存在—を提案する。人間が ownership するが AI によって運用されるA-corp は、薄い識別の問題を AI の行為を人間の所有者に結びつけることで解決し、出現的自己組織化を通じて厚い識別の問題を解く。A-corp は、AI が目標を達成するために必要な資源(計算機資源を含む)を所有し、AI マネージャーに目標に整合した AI とのみ権限を共有する強いインセンティブを与える。均衡において、インセンティブと選択の仕組みは A-corp を自己組織化させ、法的インセンティブ、例えば責任に合理的に応答する、持続的で法的に識別可能な実体へと導く。

