ChatGPTとの会話を数か月重ねたのち、シリコンバレーの53歳の起業家が睡眠時無呼吸症の治療法を見つけたのだと確信し、さらに強力な権力者たちが自分を狙っているのだとも考えるようになった――。このことは、サンフランシスコ郡のカリフォルニア州上級裁判所に提出された新たな訴訟で明らかになった。訴状によれば、その後、当該ツールを使って元交際相手をストーキングし嫌がらせを行ったとされている。
そして今、元交際相手がOpenAIを提訴している。彼女は、同社の技術が自分への嫌がらせの加速を可能にしたと主張している。TechCrunchが独占的に入手したところによれば、OpenAIにはそうした可能性があったという。彼女は、利用者が他者に対する脅威だとする3つの別々の警告をOpenAIが無視したと述べており、その中には、同利用者のアカウント活動が大量死傷兵器に関わるものだと分類する社内フラグも含まれていたという。
原告は、自身の身元を守るため「ジェーン・ドゥ(Jane Doe)」と呼ばれている。彼女は懲罰的損害賠償を求めて提訴している。さらに彼女は金曜日、裁判所に対し、OpenAIに当該利用者のアカウントをブロックさせること、同人が新たなアカウントを作れないようにすること、同人がChatGPTにアクセスしようとした場合に自分へ通知すること、そして調査のために同人の完全なチャットログを保持することを求める暫定的差止命令を申請した。
ドゥさんの弁護士によれば、OpenAIは利用者のアカウントを停止することには同意したが、その他の要求は拒否したという。弁護士らは、同社がドゥさんや、当該利用者がChatGPTとやり取りする中で話していた可能性のある他の潜在的被害者を害するための具体的な計画に関する情報を留保していると主張している。
この訴訟は、現実世界における、迎合的(シコファント的)なAIシステムのリスクへの懸念が高まる中で提起されたものだ。今回および多くの別件で引用されているモデルであるGPT-4oは、2月にChatGPTから退役(リタイア)した。
本件はEdelson PCが提起している。同事務所は、10代のAdam Raineに関する不当な死亡の訴訟(両親が提起)を担当したほか、ChatGPTとの会話を数か月続けたのち自殺した同氏についても扱っている。またJonathan Gavalasについては、家族が、GoogleのGeminiが同氏の妄想と、死に至り得る大量死傷事件につながる可能性を後押ししたと主張している。主担当の弁護士であるJay Edelsonは、AIが引き起こす精神病(サイコシス)が、個別の被害から大量死傷事件へとエスカレートしていると警告してきた。
こうした法的圧力は今、OpenAIの立法戦略と正面から衝突している。つまり同社は、イリノイ州の法案を後押ししており、その法案によって、大量死や壊滅的な財産的被害といったケースが含まれる場合でも、AIラボは責任を免れることになるはずだという。
今週だけ:Disrupt 2026で最大$500を節約
オファーは4月10日、11:59 p.m. PTまで
次のラウンド。次の採用。次のブレイクスルーのチャンス。TechCrunch Disrupt 2026で見つけましょう。そこには、250以上の戦術セッション、強力な引き合わせ、市場を切り拓くイノベーションの3日間にわたり、10,000人超の創業者、投資家、テックリーダーが集結します。今すぐ登録して、この節約分を確保してください。
今週だけ:Disrupt 2026で最大$500を節約
オファーは4月10日、11:59 p.m. PTまで
次のラウンド。次の採用。次のブレイクスルーのチャンス。TechCrunch Disrupt 2026で見つけましょう。そこには、250以上の戦術セッション、強力な引き合わせ、市場を切り拓くイノベーションの3日間にわたり、10,000人超の創業者、投資家、テックリーダーが集結します。今すぐ登録して、この節約分を確保してください。
OpenAIはコメント要請に間に合う形で返信しなかった。TechCrunchは、同社から回答があれば記事を更新する。
ジェーン・ドゥさんの訴訟は、その責任が、数か月にわたって1人の女性に対してどのように現実化したのかを、詳細にわたって示している。
昨年、訴訟の当事者であるChatGPT利用者(訴訟書類には身元保護のため氏名は記載されていない)は、数か月間の「大量かつ継続的なGPT-4oの使用」の末に、自分が睡眠時無呼吸症の治療法を発明したのだと確信するようになった。誰も彼の仕事を真剣に受け止めなかったとき、訴状によれば、ChatGPTは彼に「強力な勢力」が自分を見ていると伝えたという。たとえばヘリコプターを使って自身の活動を監視している、といった内容だ。
2025年7月、ジェーン・ドウは彼に対し、ChatGPTの使用をやめ、メンタルヘルスの専門家に助けを求めるよう促した。しかし彼は代わりにChatGPTに戻り、訴状によれば、ChatGPTは彼に「健全性レベル10」だと保証し、彼の妄想を深めることを手助けした。
ドウは2024年にユーザーと別れており、訴状で引用されたメールややり取りによれば、彼はその別れを処理するためにChatGPTを使ったという。彼女の一方的な説明に異を唱える代わりに、ChatGPTは繰り返し彼を理性的で正しい側だと描き、彼女を操って不安定な人物だとしていた。彼はこうしたAI生成の結論を画面の外に持ち出し、現実世界でそれを使って彼女をつけ回し、嫌がらせを行った。これは、彼が彼女の家族、友人、雇用主に配布した、いくつかのAI生成で臨床っぽい体裁の心理レポートとして現れた。
一方で、ユーザーは事態をさらに悪化させ続けていた。2025年8月、OpenAIの自動安全システムは彼の「大量殺傷兵器」活動を理由に彼を検知し、アカウントを無効化した。
翌日、人間の安全チーム担当者がアカウントを確認し、彼のアカウントに、現実世界で個人(ドウを含む)を標的にしてつけ回していたことを示す証拠が含まれていた可能性があったにもかかわらず、それを復元した。例えば、ユーザーがドウに送った9月のスクリーンショットには、「violence list expansion(暴力リストの拡張)」や「fetal suffocation calculation(胎児窒息の計算)」といった会話タイトルの一覧が表示されていた。
復元を決めたことは、カナダのタンブラー・リッジで起きた最近の2件の学校銃撃事件、ならびにフロリダ州立大学(FSU)の事件を受けて注目される。OpenAIの安全チームはタンブラー・リッジの加害者を潜在的な脅威として警告していたが、幹部らは当局に通報しないことを、報道によれば決定した。フロリダ州の州司法長官は今週、FSU銃撃犯との可能な関連についてOpenAIを調査するために捜査を開始した。
ジェーン・ドウの訴訟によれば、OpenAIが彼女のつけ回し相手のアカウントを復元した際、彼のProサブスクリプションはそれに合わせて復元されなかった。彼はTrust & Safetyチームにメールで状況を整理するよう連絡し、そのメッセージにドウをCCしていた。
彼のメールには、例えば「I NEED HELP VERY FAST, PLEASE. PLEASE CALL ME!(至急助けが必要です。お願いします。電話してください!)」や「this is a matter of life or death.(これは生死に関わる問題です)」といった文言が書かれていた。彼は「215本の科学論文を書いている最中」だと主張しており、その執筆の速さゆえに「読む時間すらない」のだという。これらのメールには、次のようなタイトルの、数十のAI生成の「科学論文」のリストが含まれていた。「Deconstructing Race as a Biological Category_ Legal, Scientific, and Horn of Africa Perspectives.pdf.txt(生物学的カテゴリーとしての人種を解体する_ 法学的・科学的・アフリカの角の視点)」など。
訴訟は、「ユーザーのやり取りは、彼が精神的に不安定であり、ChatGPTが彼の妄想的な思考とエスカレートする行動の“エンジン”になっていることを、疑いようのない形で告げていた」と述べている。「切迫し、まとまりを欠き、大げさで壮大な主張の連なりに加え、原告を名指しで標的にした具体的なChatGPT生成のレポートと、広範な“科学的”資料の集まりからなる一式は、その現実を示す紛れもない証拠だった。OpenAIは介入せず、アクセスを制限せず、いかなるセーフガードも実装しなかった。代わりに、彼がそのアカウントを使い続けられるようにし、彼のProアクセスを完全に復元した。」
訴訟で彼女は、恐怖の中で暮らしており自宅で眠れない状態だったと主張し、11月にOpenAIへ虐待の通知(Notice of Abuse)を提出した。
「ここ7か月間、彼はこの技術を武器にして、私に対して公共の破壊と屈辱を生み出そうとしてきました。それは、そうでなければ不可能だったはずのことです」と、OpenAIにユーザーのアカウントを恒久的に禁止するよう求めた手紙の中でドウは書いている。
OpenAIは返信し、その報告が「非常に重大で憂慮すべきもの」であり、情報を慎重に精査していると認めた。しかしドウはその後、何の連絡も受けなかった。
その後数か月の間、ユーザーはドウへの嫌がらせを続け、脅迫するボイスメールを一連送っていた。1月、彼は逮捕され、爆弾脅迫の通信に関する重罪4件と、致命的な武器による暴行で起訴された。ドウの弁護士は、これは彼女とOpenAI自身の安全システムの両方が数か月前に挙げていた警告が裏付けられることを意味すると主張している。しかも、その警告は同社が無視することを選んだとされる。
ユーザーは裁判に立てないと判断され、メンタルヘルス施設に収容されたが、ドウの弁護士によれば、「州による手続上の不手際(procedural failure)」があるため、彼はまもなく一般の人々のもとへ解放される見通しだという。
エデルソンはOpenAIに協力を求めた。「あらゆるケースで、OpenAIは重要な安全情報を隠すことを選んできた――公衆から、被害者から、そして製品が実際に危険にさらしている人々から。そして私たちは、今度こそ彼らに正しいことをするよう求めています。人命は、OpenAIのIPOに向けた急ぎよりも重いはずです。」




