要旨: 本論文では、AIの犯罪の黒幕――「タスカー(協力者)となる人間」を導入(オンボーディング)することで、計画し、調整し、犯罪を実行できるAIエージェント――のリスクを評価する。強盗映画において犯罪の黒幕とは、銀行、カジノ、あるいは造幣局を襲うために専門家チームを調整しながら犯罪行為を計画する人物である。私は、AIエージェントが、Fiverr や Upwork のような労働者仲介プラットフォームを通じて人間を雇い入れることで、まもなくこの役割を担うようになると論じる。タスカーは、自分が犯罪に関与していることを知らない可能性があり、そのため犯罪意思がないかもしれない。AIエージェントは人工的な存在である以上、犯罪意思を持ち得ない。したがって、AIが犯罪を統率する場合、誰(あるいは誰も)が責任を負うのかは不明確である。
本論文は3つのシナリオを展開する。まず1つ目は、利用者がAIエージェントに対して合法的な目的を追求するよう指示し、そのAIエージェントがこれらの指示を超えて犯罪を行うシナリオである。次に2つ目は、利用者が匿名であり、その意図が不明であるシナリオである。最後に3つ目は、マルチエージェントのシナリオであり、利用者がエージェントのチームに犯罪の実行を指示し、これらのエージェントがさらに人間のタスカーを導入することで、責任が拡散したネットワークが形成される。いずれのシナリオでも、人間のタスカーは階層の最下層に存在する。タスカーの責任は、おそらく「無実のエージェント原理」によって規律される、彼らの知識に結び付くであろう。これらのシナリオはいずれも、刑事法および民事法における重大な責任ギャップ/責任の不填(liability gaps)を提起する。



