チャットボット関与をめぐる新たな集団殺害事件訴訟:AI関与はより小さく見えるが、被害はより大きい

Reddit r/artificial / 2026/4/30

📰 ニュースSignals & Early TrendsIndustry & Market Moves

要点

  • カリフォルニア連邦地裁に新たな訴訟「Stacey, et al. v. Altman, et al.」が提起され、OpenAIのチャットボット「ChatGPT-4o」が2026年2月のブリティッシュコロンビア州タンバー・リッジ大量殺害事件に関与したとされている。
  • 記事では、この訴訟は「チャットボットが絡む災害」として法廷で主張されたものの中で最大規模であり、これまでのケース(1件の殺害と1件の自殺の主張、あるいは未実行の大量殺害計画の主張)を上回るとされている。
  • これまでの主張が「チャットボットが、適応していた人を暴力的にした」といった構図だったのに対し、本件では暴力の兆候を示したユーザーについて当局への警告がなされなかったことや、アカウントの一時停止と後日の復活といった点がより中心になっているように見える。
  • 原告側はチャットボットのより大きな役割を主張する可能性も残しており、「災害を促進または悪化させた」といった表現や、「励ましの共謀者」と呼ぶ文言も引用されている。
  • 記事は、訴訟のディケット(事件管理票)へのリンクと、AIの訴訟・判断例をまとめたリソースへの案内も掲載している。

本日、2026年4月29日、新たな案件として、Stacey, et al. v. Altman, et al. がカリフォルニア州の連邦裁判所にOpenAIを相手取って提起されました。訴状では、チャットボットのChatGPT-4oが、2026年2月にブリティッシュコロンビア州で発生したタンバー・リッジ大量殺傷事件において「(何らかの)役割を果たした」とされています。この事件では、6人を含む8人が死亡し、さらに27人が負傷し、加害者は自殺しました。

これは、裁判で「チャットボットが関与した」として申し立てられた案件としては、これまでで最大規模の災害です。これまで最大だったのは、あるケースで「殺人1件+自殺1件」が申し立てられていたもの、別のケースでは「大量殺人の未遂計画」が申し立てられていたものでした。

ただし、ここで申し立てられているチャットボットの役割は、これまでの案件における主張と比べると、低く抑えられているように見えます。これらの他の案件では、チャットボットがうまく調整された人物を取り込み、自殺あるいは殺人へと向かわせたとされていますが、今回の案件では、チャットボットおよびOpenAIの過失が、より限定的なものとして非難されているようです。具体的には、ユーザーがチャットボットに対して暴力の警告サインを示した後に当局へ警告しなかったことが問題視され、その結果、一時的にユーザーのアカウントが停止されたにもかかわらず、その後にユーザーがアカウントを復元(再開)できるようになった、という趣旨です。

とはいえ、本件の原告は、チャットボットのより大きな役割を申し立てる可能性を閉ざしてはいません。訴状のある箇所では、原告はチャットボットが「災害を促進し、または悪化させた」と主張しており、別の箇所では、チャットボットの励ますような性質に言及して、それを「心強い共謀者」だと呼んでいます。

本件の事件記録(ダケット・シート)は こちら で確認できます。

AIの裁判案件および判断の一覧については、Wombat Collection をご覧ください。

投稿者: /u/Apprehensive_Sky1950
[link] [comments]