たいていはソーシャルメディアからダウンロードした写真から始まります。
世界各地で、10代の少年たちが学校で知っている女の子のInstagramやSnapchatの画像を保存し、有害な「ヌーディフィ(nudify)」アプリを使って、それらの子の偽のヌード写真や動画を作成しています。こうしたディープフェイクは、すぐに学校全体に拡散され、被害者は、恥辱感や侵害された感覚、絶望感、そして画像が永遠に自分を追いかけてくるのではないかという恐怖にさいなまれます。
学校を直撃しているディープフェイク危機はここ数年、ゆっくりと始まりましたが、その後、露骨な映像を作るために使われる技術がより手に入りやすくなるにつれて、事態は大きく広がりました。WIREDとIndicator(デジタル上の欺罔や誤情報に焦点を当てるメディア)が、公開された事例をレビューしたところによれば、世界で約90校がディープフェイクによる性的虐待の被害を受けており、600人以上の生徒に影響が出ています。
調査結果は、2023年以降少なくとも28カ国で、児童生徒――多くの場合は高校の男子――が、生成AIを使って性的に露骨なディープフェイクでクラスメートを狙ったとして告発されていることを示しています。未成年が含まれる露骨な画像は、児童性的虐待素材(CSAM)とみなされます。この分析は、AIによるディープフェイク悪用が世界の学校で実際に起きたケースを検討する、初めてのものだと考えられています。
全体として、この分析は、有害なAIによる「ヌーディフィ」技術が世界規模で届いていることを示しています。この技術は、クリエイターに毎年何百万ドルもの収益をもたらし得る一方で、多くの事件では学校や警察当局が、深刻な性的虐待の事案に対応する準備ができていないことも明らかにしています。
北米では、2023年以降、ディープフェイクによる性的虐待の通報が約30件に達しており、その中には、60人の被害申告者(とされる人々)を含むものがあります。また、被害者が一時的に学校から退学処分になったケースもあれば、複数の学校の生徒が同時に狙われたとされるケースもあります。同時に。南米では10件以上が公に報じられており、ヨーロッパでは20件以上、さらにオーストラリアと東アジアではそれぞれ十数件が合わせて報告されています。
この地図のデータ収集と分析は、WIREDとIndicatorの共同で作成されました。
学校で起きている深刻なディープフェイクによる性的虐待の実態の規模は、実際にはさらに大きい可能性が高い。国連児童基金ユニセフ(Unicef)が実施した調査の一つでは、昨年、性的なディープフェイクが作成された子どもは120万人に上ったと推計している。スペインの若者のうち5人に1人が、と話した。セーブ・ザ・チルドレンの研究者によれば、ディープフェイクのヌード(加工された裸画像)が自分たちに対して作られていたという。児童保護団体のソーン(Thorn)は見つけた。1/8の10代が、標的にされた相手を知っており、また2024年には、民主主義と技術センター(Center for Democracy and Technology)による調査で、学生の15%が、自分の通う学校に関連するAIが生成したディープフェイクについて知っていると答えた。
「これに影響を受けていない学校を見つけるのは、かなり難しいと思います」と、カナダ児童保護センター(Canadian Centre for Child Protection)のテクノロジー部門ディレクター、ロイド・リチャードソンは言う。「いちばん重要なのは、こうしたことが起きたときに被害者をどう支援できるかです。なぜなら、この影響は非常に大きくなり得るからです。」
WIREDとインジケーター(Indicator)の分析は、学校の所在地や潜在的な被害者数など、特定の詳細を伴って公に報じられた事例を調べた。大半は英語での報道であり、多くの国について利用できるデータが不足している。多くの事例は報道されないこともあり、仮にされていたとしても、具体的な詳細が含まれていない場合がある。その代わり、学校や警察当局の担当者が、非公開の形で対処できてしまうことがある。
それでも、はっきりしたパターンが見えてくる。ほぼすべてのケースで、画像や動画の作成に関与した責任は10代の男子が負っているとされている。そうしたものは、同級生とソーシャルメディアのアプリ上で共有されることが多いか、あるいは即時メッセージで共有される。そして被害者にとっては極めて有害だ。「私は、彼らが私を見るたびに、あの写真も一緒に見ているんじゃないかと心配です」と、アイオワ州の被害者の一人が年初に語った。「彼女は泣いてばかりです。食べられていないんです」と、別の被害者の家族も語った。
複数の事例で、被害者は、学校に行きたがらない、あるいは自分に対して性的に露骨な画像や動画を作った相手に直面したくないことが多い。「これらの画像はおそらくインターネットに出回って、小児性愛者(いわゆるペドフィリア)に届いてしまうと分かっているから、彼女は絶望しています」と、弁護士のシェーン・ヴォート(Shane Vogt)は述べている。そして、イェール大学ロースクールの3人の学生、キャサリン・ストロング(Catharine Strong)、トニー・スヨディン(Tony Sjodin)、スザンヌ・カスティージョ(Suzanne Castillo)は、ヌード化(加工)サービスに対して、匿名のニュージャージー州の10代の少年/少女1人を法的に代理する立場で訴訟を起こしている。「これらの画像がすでに世の中に出回っていると知って、彼女は深刻な動揺に陥っています。そして、広がらないようにするために、生涯ずっとインターネットを監視しなければならないのです。」
韓国とオーストラリアでは、学校が、生徒の写真を年鑑に載せない選択肢を生徒に与える、または公式のソーシャルメディアのアカウントに生徒の画像を投稿することをやめる動きが広がっています。これは、潜在的なディープフェイク悪用につながるためだとしており、「世界中で、学校の画像が公共のソーシャルメディアのページから取り出され、AIで改変されて、有害なディープフェイクにされるケースが報告されています」とオーストラリアのある学校は述べています。「代わりに、横顔、シルエット、頭部の後ろ姿、遠景の集合写真、クリエイティブなフィルター、または承認済みのストックフォトが掲載されます。」
AIを使って作られた性的ディープフェイクは、2017年の終わりごろから存在していました。しかし、生成AIのシステムが登場し、さらに強力になっていくにつれて、「ヌーディフィケーション」や「脱衣」といった技術による、陰に隠れたようなエコシステムが生まれています。数十のアプリ、ボット、ウェブサイトが、ほんの数クリックで、他人の性的に加工された画像や動画を誰でも作れるようにしています。しかも、多くの場合技術的な知識は不要です。
RATI財団の共同設立者でディレクターのシッダールス・ピライは、「AIが変えるのは、規模(スケール)、速度、そして利用のしやすさです」と述べています。同財団はムンバイを拠点とし、女性や子どもへの暴力を防ぐ活動をしています。「技術的なハードルが大幅に下がったことで、思春期の子どもを含め、より多くの人が、ほとんど努力をせずに、より説得力のある出力を作れるようになりました。こうしたAIによる多くの害と同様に、その結果としてコンテンツがあふれることになります。」
児童の安全に取り組む団体Thornで研究とインサイトを担うアマンダ・ゴーハリアンは、ティーンがディープフェイクによる加害を行う背景には、さまざまな動機があることを示す同団体の調査結果を述べています。動機は性的なものから、好奇心、復讐、あるいはティーン同士で“画像を作ってみろ”といった掛け合いをすることで生まれることもあります。ディープフェイクによる性的虐待を行った成人を対象とした研究でも、画像が作られる理由にはさまざまな要因があることが同様に示されています。「目的が必ずしも性的な満足であるとは限りません」とピライは言います。「むしろ、屈辱、貶め、そして社会的な統制を意図するケースが増えています。」
「技術だけの話ではありません」と語るのは、フェミニスト・メディア研究の教授で、性別に基づく暴力に焦点を当てる研究者であるタニヤ・ホレックです。彼女は、アンジリア・ラスキン大学で、英国の学校における性的ディープフェイクを調査してきました。「こうした犯罪を可能にする、長年にわたるジェンダーに関する力学の問題なのです。」
近年、学校でのディープフェイクの発生件数が増えているため、学校や法執行機関がそれらにどう対応するかは、ケースによって大きく異なり得ます。保護者からは、当局による対応が不十分だという不満が出ています。ある事例では、事件を学校が警察に報告するまでに3日かかったと報じられています。一方別の事例では、被害者が、問題の当事者として疑われている個人に対してすぐに重大な結果がなかったと主張しました。生徒がCSAM(児童の性的虐待素材)の作成や所持の罪で起訴される場合もあれば、別の刑事罰や学校からの停学処分を受ける場合もあります。3月には、ペンシルベニア州の2人の生徒が少年裁判所で有罪を認め、その後判決を受けた 返却形式: {"translated": "翻訳されたHTML"} のコミュニティ・サービス(CSAM関連の重罪の容疑)として最大60時間に処されることになった。60人の少女の画像や動画を作成したことによるものだ。
複数のケースで、深刻なデジタル偽造(ディープフェイク)による性的虐待の作成に対して、最終的に反撃をしたのは、10代の少女たちとその家族だ。彼らは、一般に行動が遅い政治家よりも動くことが多い。ティーンエイジャーたちは被害者を支援するために授業を抜け出し、告発された加害者に対して抗議し、オンライン研修の コース の作成に関わり、法律を変えるなどしてきた。そこには、「テイク・イット・ダウン法」の成立への貢献も含まれる。同法は、技術プラットフォームに対し、同意のない親密な画像を48時間以内に削除することを求めている。(別件として、英国とEUはヌード化アプリの禁止に向けて手続きを進めている一方で、オーストラリアのeSafety規制当局は、オーストラリアの児童・生徒のヌード化を行う一部サービスに対して< a href="https://www.esafety.gov.au/newsroom/media-releases/esafety-action-prevents-services-nudifying-australian-school-children" class="external-link text link" data-event-click="{"element":"ExternalLink","outgoingURL":"https://www.esafety.gov.au/newsroom/media-releases/esafety-action-prevents-services-nudifying-australian-school-children"}" target="_blank" rel="nofollow noopener">措置を取った。)
「子どもが起きたことについて声を上げたとき、返ってくる対応がまったく不十分であることが多い」と、ユニセフの児童保護の専門家であるアフルーズ・カヴィアニ・ジョンソンは言う。「これらの大人が、開示(告白や申告)に対してどのように応答するかは、回復に大きな影響を与えるだけでなく、仮に別のことが起きた場合に、子どもがまた声を上げる可能性にも大きく影響し得ます。」
「学校が、脅威の状況(スレット・ランドスケープ)と、それに対する権利、抑止策、方針、危機対応の準備をきちんと把握できるようにするには、本当にたくさんの仕事が必要です」と語るのは、元教員であり、全米で学校向けの研修を運営しているPathos Consulting Groupの創設者でもあるエヴァン・ハリスだ。ハリスによれば、準備には、明示的なディープフェイクを作成することがもたらす害や違法性について生徒に教育することから、学校の管理職がデジタル・フォレンジック(鑑識)や証拠の収集について考えられるよう支援することまで、あらゆることが含まれるという。「生徒がディープフェイクを経験したり、それに気づいたりした場合に、私たちが生徒へツールと言葉、そして支援を提供することが不可欠です」と、ハリスが研修で協力しているメリーランド州のマクドノー・スクールで教育デジタル戦略のシニア・ディレクターを務めるロビン・リトルは述べている。
ディープフェイクに関する学校側の問題は、生徒同士が互いに危険な性的イメージを作ってしまうことにとどまらない。子どもたちは、教師のディープフェイクを性的に露骨な形で、複数回にわたって作り出したこともある。それらによって教師を屈辱的な状況に追い込み、あるいは実際には言っていないことを言わせることも起きている。オレゴン州のある学校では、通常の教師が体調不良で欠勤するに至った後、スタッフの画像を加工して共有するソーシャルメディアのアカウントに対し抗議していたことを背景に、臨時の代替教員を雇うよう迫られた。別の 報告によれば、教師が四つん這いになって犬のエサを食べている、あるいは銃を持っているところが描かれたケースもあるという。
「この[ディープフェイクによる性的虐待]は、おそらくディープフェイクのリスクの中でも、最も差し迫っていて、深刻で、害が大きいものかもしれません」とハリスは言う。「しかしそれは、同時に噴き上がってきていて、しかも学校が特に脆弱で、実際にほとんど準備ができていない、6つかそれ以上のリスクのうちの1つにすぎません。資源の問題もありますし、学校の業務はそもそも山積みだからです。」




