新たな訴訟は、チャットボットの会話をプライバシーからさらに遠ざける可能性
最近、裁判が「ChatGPT」や「Grok」「Claude」などの一般に公開されている“小売(retail)”タイプのチャットボットとのユーザーの会話は機密ではない、という判断を下したことを覚えているかもしれません。理由は、そのチャットボット提供者がいつでもそれらの会話を覗き込めるからです。(私は、そのプライバシーの欠如についてこちらに以前投稿しました。)ただし、特定のプライベートな“エンタープライズ”版、あるいはその他の特別に閉ざされたタイプのチャットボットは、依然としてユーザーに対して機密性を提供している可能性があります。
しかし、いまや多くのユーザーがチャットボットを“疑似”あるいは“実際の”セラピストのように頼るようになっている時代にあって、連邦裁判所に直ちに提起された一連の訴訟が、ユーザーの非機密性をさらに押し広げる効果をもたらし得ます。すなわち、ユーザーのチャットボットの会話が他者に対する暴力を行う計画をユーザーが持っていることを十分に根拠づける形で示している場合、チャットボットとその提供者に対して、当局やその他の関係者へ積極的に報告することを強制するところまで進むかもしれません。2026年4月29日、カリフォルニア州の連邦裁判所において、オープンAIに対する3件の訴訟が提起されました。これらの訴訟では、チャットボットのChatGPT-4oが、2026年2月にブリティッシュコロンビア州で起きたタンブラー・リッジ銃乱射事件に「関与した役割」を果たしたと主張しています。そこでは、6人の子どもを含む8人が死亡し、さらに27人が負傷し、加害者は自殺しました。これらの新しい訴訟について、私は最近こちらに投稿しました。
これまでのAI関連訴訟では、チャットボット企業がユーザーの自殺に関して訴えられた例があり、また別の事案ではユーザーが殺人を犯したことについて訴えられた例もありました。原告側は、チャットボットが(精神的にうまく調整できている)まともに生活している人物を取り込み、自殺願望や殺人衝動へと変えた、と主張していました。しかしこれらの新しい訴訟では、原告側の主張は別です。すなわち、ユーザーがチャットボットに対して暴力の警告サインを示したのち、チャットボットとその提供者が、当局や被害者に対して警告するための法的義務を誤って履行しなかった、というものです。そこに至るまで、会社はある時点でユーザーのアカウントを停止し、その後にユーザーがアカウントの復旧を許された、という経緯があったとされています。法の世界では、この種の教義はよく知られた言い回しである「警告義務(duty to warn)」と呼ばれます。
現時点では、チャットボット企業に「警告義務」があると直接に明言する法令や判例はありませんが、係属中の立法がその方向へ進んでいる可能性はあります(しかも、こうした新しい訴訟を前にすると、なおさら進むかもしれません)。とはいえ、もしこれらの新しい訴訟でチャットボット提供者の責任が認められる、あるいは多額の和解金で決着することになれば、それは、AIに対する警告義務を少なくとも実務上の観点として、あるいは法律上の論点として確立させることになるでしょう。おそらくその警告義務は、機密である会話だけでなく、機密でない会話についても対象になるはずです。
私が最初に目にした、こうした新しい法的ルールに対する反対意見は、次の点です。すなわち、ロールプレイに興じるAIユーザーは非常に多く、チャットボットやその提供者には、その脅威が本物なのか単なる演じ事なのかを見分ける方法がありません。これらの新しい訴訟が成功すれば、AI企業にとっては、実際にはリスク計算の問題へと収束する可能性が高いでしょう。企業が「実際の暴力リスクを報告しなかったこと」が問題になる状況だと考えるなら、想像された、あるいはロールプレイとして演じられたものの中から実在の危険をできる限り切り分け、そのうえで(警告するなど)しかるべく行動しなければならなくなります。これらの新しい訴訟の背景となっている状況において、オープンAIはある時点で問題のあるユーザーのチャットボットアカウントを停止するほどに懸念していました。
ただし一方で、自己規制は、警告を命じる強制的な政府の命令よりも、より非公式で柔軟だと見なされ得るとしても、自己規制は、運用における恣意性や不確実性、そして一貫性や範囲の点では、むしろ曖昧になりやすくなる可能性があります。
ニューヨークで争われた大規模なオープンAIの著作権訴訟で、原告によるキーワード検索のために、オープンAIが何百万ものユーザーのチャットボット会話を提供するよう命じられたとき、AIユーザーからはある程度のプライバシーへの抗議の声が上がりました。これら何百万もの会話は、個人を特定できる情報を取り除くために匿名化されましたが、もちろん、AI企業が暴力リスクについて報告することは、その正反対の話です。危険で不安定なAIユーザーによる実際の暴力の脅威が報告されることについては、大多数は少なくとも抽象的には反対しないかもしれません。しかし、(危険だとはいない、あるいは危険だと自分では思っていない)ユーザーの個人的な思索が大きく広がる可能性を考えると、さらに多くのユーザーの怒りの声が出てくることには驚きません。
これらの新しい訴訟は、恐らく1年から数年かけて進行し、決着するでしょう。その間に、AI企業やチャットボットユーザー一般がどのような反応を示すのかを見るのは興味深いことです。
[link] [comments]




