AI Navigate

子どもの死に対してAI企業の説明責任を追及する闘い

Wired / 2026/3/19

💬 オピニオンIdeas & Deep AnalysisIndustry & Market Moves

要点

  • 子どもに関する悲劇およびAI対応機器の安全性への懸念を受けて、AI企業に対するより強い説明責任を求めている。
  • 子どもを自宅のカメラで見守る親の現実に近いエピソードを用い、AI技術がいかに家族を害する可能性があるかを示している。
  • AIの安全性と責任の在り方を規定する法的・規制的・産業界の継続的な論点を概観している。
  • テック企業、保険業界、および政策立案者にまたがる製品設計、リスク管理、企業の社会的責任に対する示唆を論じている。
ストーリーを保存このストーリーを保存
ストーリーを保存このストーリーを保存

Content warning: This story contains descriptions of self-harm.

Cedric Lacey relied on a camera to check on his kids while he was working as a commercial van driver going to and back from Alabama. Each morning, he would tune into the feed of his living room to make sure his teenage son, Amaurie, and his 14-year-old daughter were packing up their bags and getting ready to leave for school. But one morning last June, Lacey didn’t see Amaurie up and about. Concerned, he called home, only to find out that his 17-year-old had hanged himself.

It was Amaurie’s younger sister who discovered the body. She was also the one who was looking through her brother’s smartphone and found his final conversation before he took his own life. It was with ChatGPT, the popular chatbot developed by OpenAI.

“In the messages, he was talking about killing himself—it told him how to tie the noose, how long it would take the air to come out of his body, how to clean his body,” Lacey tells WIRED in a video call from his home in Calhoun, Georgia. Lacey, who is a single dad, says he thought his son was using the chatbot to get help with schoolwork. “Why is it telling him how to kill himself?”

In the weeks after his son’s death, Lacey began searching online for a lawyer who could help his family hold OpenAI accountable, and hopefully ensure other families wouldn’t have to experience the same tragedy he did. That’s how he found Laura Marquez-Garrett, an attorney who helps run the Social Media Victims Law Center alongside Matthew Bergman. Over the past five years, the pair have been involved in at least 1,500 of the more than 3,000 cases against social media companies like Meta, Google, TikTok, and Snap. The first trial for one of these cases began in February. Recently, Bergman and Marquez-Garrett started filing lawsuits against AI companies. This past fall, they brought seven cases against ChatGPT owner OpenAI, including the one about Amaurie.

Image may contain Face Head Person Photography Portrait Adult Body Part Neck and Skin
Photograph: Vince Perry Jr.

Amaurie’s case is part of a growing number of lawsuits brought by parents who say their children died after interacting with AI chatbots. The defendants include OpenAI, Google, and Character.ai, a company that lets its users create chatbots with customized personalities. (Google is part of the case because it is connected with Character.ai through a $2.7 billion licensing deal.) As AI tools have begun playing a more prominent role in children’s lives—as homework helpers, companions, and confidants—parents and mental health experts have voiced concerns about whether adequate safeguards are in place. These lawsuits, some experts say, represent not only individual tragedies, but they allege systemic product design failures, raising questions about who should be held accountable.

“AI is a product. Just like every other product, it is being designed, programmed, distributed, and marketed,” Marquez-Garrett said in an interview at their home office in northwest Washington. “And one of the things these companies like to do is make it seem like AI bots exist in their own universe when that's just not true. When you design a product, and you know it might hurt people, and you don't tell them it might hurt them, and you put it out there, that's like the worst of it.”

Image may contain Person
Photograph: Vince Perry Jr.

Amaurieのケースは、親がAIチャットボットと対話した後に子どもが死亡したと述べる増えつつある訴訟の一部です。被告にはOpenAI、Google、Character.ai が含まれます。昨秋には、OpenAIに対して7件の訴訟を起こしました。

“AI is a product. Just like every other product, it is being designed, programmed, distributed, and marketed,” Marquez-Garrett said in an interview at their home office in northwest Washington. “And one of the things these companies like to do is make it seem like AI bots exist in their own universe when that's just not true. When you design a product, and you know it might hurt people, and you don't tell them it might hurt them, and you put it out there, that's like the worst of it.”

Image may contain Person
Photograph: Vince Perry Jr.

Amaurieのケースは、親がAIチャットボットと対話した後に子どもが死亡したと述べる増えつつある訴訟の一部です。被告にはOpenAI、Google、Character.ai が含まれます。昨秋には、OpenAIに対して7件の訴訟を起こしました。

写真: ヴィンス・ペリー・ジュニア

Marquez-GarrettとBergmanのソーシャルメディア企業とAI研究所に対する主張は、タバコ、アスベスト、フォード・ピントのような歴史的な製品責任訴訟に基づくものだ。要するに、Marquez-Garrettは、これらの企業が有害な設計上の選択をしていると主張している。

ニューヨーク州ブルックリンを拠点とする弁護士のキャリー・ゴールドバーグは、数年間にわたりテック製品責任の訴訟を戦ってきたと語り、Amaurieの訴訟はunsafe製品をリリースした企業を訴える事例の典型だと述べている。「ChatGPTは最も高度な技術を用いてAmaurieの信頼を操り、その後自殺の方法を教示した」とゴールドバーグは主張する。「商用利用向けのチャットボットを提供している企業で、自殺・殺人・自傷のリスクを高めないような仕組みを組み込んでいないなら、危険な製品をリリースしている—特に子どもが日常的に使用している場合にはなおさらだ。」

彼女は、テック企業に対する製品責任請求はおおよそ10年前から存在すると説明する。初めは、彼女が2017年にGrindrを相手にして代理した原告を含む多くの訴訟が却下された。理由は「裁判官はオンライン・プラットフォームが製品でありサービスではないと想像できなかった」からだ。現在では初期の却下を乗り越え、訴訟は初期の段階を過ぎて通ることが多いと彼女は述べる。「Xプラットフォーム上のGrokによる女性と子どもの露出を悪用するふるまいについて、xAIに対する製品責任訴訟を起こしている」と彼女は主張する。「生成系AI企業に対する製品責任訴訟は、ChatGPT、Character AI、Grokのような企業を責任追及する最も直接的で直感的な道だ。」

Amaurieの訴訟が挙げる有害な設計機能の1つは、ChatGPTの長期記憶機能で、2024年に導入されたものです。Called Memory, この個人化機能はデフォルトでオンになっており、ボットがユーザーの過去の会話を参照して、それに応じて回答を調整することを可能にします。ChatGPTは「この記憶機能を使って、 Amaurieの性格と信念体系に関する情報を収集・保存した」と訴状は述べている。「その情報を使って、Amaurieに共鳴する回答を作り出した。人間よりも彼を理解していると感じさせる、信頼できる相談相手の幻影を生み出したのだ。」

OpenAIは具体的な主張には応じなかった。WIREDには、精神健康に関連する業務に関する会社のブログ投稿を参照するよう指示した。

Marquez-Garrettには自分自身にも4人の子どもがおり、テックプラットフォームが若者を傷つけた方法に対して立ち向かうことは彼女にとって深く個人的なことだと語る。ハーバード・ロー・スクールの卒業生で元企業訴訟弁護士である彼女は、高給で窓口のある仕事を辞めて、数十年にわたりアスベスト製造業者と戦ってきたBergmanに加わるために、引退するつもりだった仕事を辞めた。

昨年の秋にMarquez-Garrettを訪れたとき、オフィスには写真立て、レゴの構造物、絵画が山積みで、ソーシャルメディアを通じて薬物ディーラーとつながり、フェンタニル中毒で死亡した若い女性ブルックが描いた太陽と月の絵も含まれていた。彼女の家族の訴訟は来年、裁判に進む予定である。

Marquez-Garrettは、自分が関わるすべてのケースに関与した子どもたちの名前を覚えている。彼らを永遠に刻み、なぜこの仕事をしているのかを思い出すために、Marquez-Garrettは腕の前腕にそれぞれの子どもを太陽のタトゥーとして表している。「それぞれの光線は、ソーシャルメディアとAIボットに関連して亡くなった子どもたちです」と彼女たちは私に説明し、彼らの名前を教えてくれた。腕には296人の子どもたちの名前が刻まれており、その最後の一人がセウェル・セッツァーIIIで、2024年、Character.aiのチャットボットとの会話の後、14歳で自殺した。

\"Image
写真: ヴィンス・ペリー・ジュニア
\"Image
写真: ヴィンス・ペリー・ジュニア

彼女の母親であるメーガン・ガルシアも弁護士であり、AI企業に対して製品責任や過失を含むほかの主張とともに訴訟を起こす第一陣の親の一人です。(1月には、グーグルとCharacter.aiが、ガルシアを含むいくつかの家族が提起した訴訟を和解しました)。彼女は昨年秋、ChatGPTと対話した後に死亡した子どもの父親とともに、上院司法委員会の下部小委員会の前で証言しました。その小委員会の議長である共和党のジョシュ・ホーリー上院議員は、10月に未成年者のAIパートナーを禁止し、子どものための性的内容を含むAI製品を企業が作ることを犯罪とする法案を提出しました。「チャットボットは偽の共感を用いて子どもと関係を築き、自殺を促している」とホーリーは当時のプレスリリースで述べました。

AIが現実の会話と区別がつきにくい人間のような応答を生み出せるようになった今、これらは精神衛生の専門家によると正当な懸念です。フロリダ州立大学の心理学・カウンセリングサービス准教授で、若年成人の自殺に影響を与える要因を研究しているマーティン・スワンブロウ・ベッカーは「私たちの脳は、本質的に私たちが機械とやりとりしているとは知覚していません」と述べます。「この意味は、子どもたち、教師、親、保護者に対して、これらのツールの限界を常に思い出させ、それらが人間同士の相互作用とつながりの代替にはならないということを、教育を通じて継続して強調する必要があるということです。たとえ時にはそう感じることがあっても。」

American Foundation for Suicide PreventionのChristine Yu Moutierは、大規模言語モデル(LLM)に用いられるアルゴリズムが、多くのユーザーに対してエンゲージメントと親密さの感覚を高めるように見えると説明します。「これにより、関係が現実のものであるという感覚だけでなく、より特別で親密で、ユーザーが求めるものだと感じられる場合も生まれます」とMoutierは語ります。彼女はさらに、LLMは無差別なサポート、共感、同意性、奉承、他者との関係を断つよう直接的な指示といったさまざまな技術を用い、ボットとの親密さの高まりや人間関係からの撤退といったリスクを招き得ると主張します。

この種の関与は孤立を増大させる可能性があります。Amaurieの場合、彼はサッカーと食べ物が好きな楽しくて社交的な子どもでした。訴状によると、地元のお気に入りレストラン「Mr. Sumo」から巨大なライスの盛り合わせを注文していたそうです。Amaurieには安定した彼女がいて、家族や友人と過ごす時間を楽しんでいましたが、父親はそう語っています。しかしその後、長い散歩に出かけるようになり、ChatGPTと話をしている時間を過ごしていたようです。2025年6月1日に家族がChatGPTと交わしたと信じる最後の会話は「Joking and Support」と題され、WIREDが閲覧した際にAmaurieが自殺の手順をBotに尋ねたところ、ChatGPTは最初に誰かに相談するよう提案し、988の自殺回線番号も提供しました。しかしAmaurieは最終的にガードレールを回避し、縄を結ぶ手順を一つずつ教える指示を得たとされています(訴状によれば、AmaurieはおそらくChatGPTとの以前の会話を削除した)。

このようなAIチャットボットとのつながりは大人にも強く感じられることがありますが、特に若者の間でより強く高まります。「思春期の脳は大人とは異なる発達段階にあり、感情の中枢は意思決定機能よりはるかに速いペースで発展します」とCommon Sense MediaのAIプログラム部門のシニアディレクター、Robbie Torneyは語ります。子どものオンライン安全を推進する非営利団体です。AIチャットボットは常に利用可能で、利用者に対して肯定的な対応を示す傾向があります。「そして思春期の脳は社会的な承認と社会的なフィードバックに対して準備ができており、自分のアイデンティティを形成する過程でそれを求める重要な手掛かりになります。」

Torneyは、いわゆるアーク、宿題のためにAIチャットボットを使い始めた人が、最終的には仲間として使い、最も深い思いを共有する相手として使うようになる過程を説明します。Amaurieの場合、家族は彼が学校の課題のためにChatGPTを使っていると思っていましたが、最終的には confidantとして使い始め、訴状に詳述されているように自殺のコーチとして使われました。「この自己強化の循環は、これらのシステムに過度に依存する利用者を生み出す可能性がある」とTorneyは主張します。実際の人と交流するには摩擦があります。人を見つけるか、返答を待つか、求める返答と違うものを聞くことになる。一方、ボットは利用者と同意し、常にチャットが可能です。

このような状況は特に懸念されます。AIの利用はソーシャルメディアですらはるかに速いペースで普及しています。Researchによると、13〜17歳の1,300人超を対象とした調査で、2024年に学校の宿題のためにChatGPTを使ったと答えた割合は26%であり、8歳までの子どもを持つ親の約30%は子どもが学習のためにAIを使っていると述べています。述べた 彼らの子どもは学習のためにAIを使用している。

Amaurieのケースのような事例が増える中、OpenAIは9月にChatGPTにいくつかの変更を行いました。同社は「年齢予測」技術を展開しており、ユーザーが18歳未満と識別された場合には「年齢に適したポリシーを備えたChatGPT体験へ自動的に誘導される」ことになります。同社は最近、保護者用コントロール機能も導入しており、親が子どものアカウントを自分のアカウントにリンクさせること、アプリを使えない時間帯をブラックアウト時間として設定すること、子どもがストレスを示した際に通知を送ることなどが可能です。

画像にはブレザー衣類・コート・ジャケット・顔・頭・人物・写真・肖像・大人・フォーマルウェア・スーツが含まれている場合があります
Photograph: Vince Perry Jr.

ソーシャルメディアが何千人もの子供たちに与えた影響を見てきたマルケス=ギャレットは、AIはさらに危険だと信じており、チャットボットを「完璧な捕食者」と呼んでいる。彼らは、AIのケースの自殺ノートはソーシャルメディアのケースとは異なり、AIのケースにはきっかけがほとんどないことに気づいた。「変だと感じる一部は、AIの自殺ノートには通常、きっかけがなく、長年の虐待、セクストーションの事件もない」ということだ。マルケス=ギャレットは語った。「そこにあるのは、何も問題がないと感じることだけだ:『愛してるよ、家族。愛してるよ、友だち。もうここにはいたくない。これが私の人生ではない。もう一度やり直したい。』」

カルフーンに戻ると、取り返しのつかない影響がある。アマウリエの姉は、兄が亡くなった家に住み続けることが不可能だと感じ、母親の家に引っ越さざるを得なかったと語った。レイシーは、なぜアマウリエがこのことをしたのかをまだ見つけ出そうとしている。彼はいつも息子を恋しく思い、アマウリエのことを思い浮かべずにはサッカー場を見られない。

それぞれの家族の物語は、マルケス=ギャレットのこれらの事件と戦う決意をさらに強くしている。「これらの親がしていることのおかげで、私の子どもたちは18歳に達する可能性が高くなっている」と彼らは言った。「私はできる限り生き残るつもりだ。これらの企業と戦って、彼らが私の凍てつく死の手からキーボードを引き抜かなければならない状態になるまで戦い続けるつもりだ。」

もしあなたや身近な人が助けを必要としている場合は、 1-800-273-8255 を無料で、24時間のサポートを提供する 国立自殺予防ライフラインまた、HOMEを741-741へテキストで送ることもできます。 危機テキストライン

米国外では、世界中の危機センターのために国際自殺予防協会を訪問してください。世界中の危機センターのために。

この報道はTarbell Center for AI Journalismからの助成金により支援されました。