月曜日、広く読まれている掲示板 r/AmItheAsshole に、真新しい Reddit アカウントが突然現れました。そこでは、ユーザーの個人的な揉め事が見ず知らずの人によって裁定されます。今回のユーザーは、「自分には自分の仕事と責任があるのに、継母の子どもをベビーシッター(育児の面倒)することを断った」ことで、線を越えてしまったのかどうかを尋ねました。投稿そのもの は簡潔で、要点がはっきりしていて、文法的にも整っていました。そこでは、投稿者の継母と父親がしばしば、直前になっても育児を任せるよう期待していた状況が説明され、やがて口論に発展したのだと言っています。
「いま家庭内に緊張があって、どう対応したのが間違いだったのではないかと考え始めている」と、投稿者は結論づけました。「子どもを育てるのはストレスがかかることは理解しています。でも、それが自分の役割ではない場合に、その責任を負う義務が自分にあるべきだとも感じません。」この人への反応は概ね好意的でした。多くの人が「子どもたちはあなたの面倒を見るべき相手ではない。家を出るのが最善だ」と返信したのです。
しかし、Pangram Labs が開発したAI検出ソフトによれば(精度は99.98%、誤検知率は1万回に1回だけだと主張している)、家族間の不和という“元のストーリー”はAIによって生成されたものだったのです。
PangramのChrome拡張機能の最新バージョンのおかげで、ページをスクロールしている最中にそれがAIコンテンツとしてフラグされているのを見つけました。これは今週一般公開されます。月額20ドルの有料プランでは、このツールはReddit、X、LinkedIn、Medium、Substackを含むSNS上の投稿をリアルタイムでスキャンし、それらが「人が書いた」「AIが生成した」「AIの支援で下書きされた」のどれかとしてラベル付けします。分析には、結論に対するPangramの確信度を測る項目も含まれます。確信度は低・中・高のいずれかです。
研究者たちは、AIの“手抜き生成(slop)”がオンラインのあらゆる場所にあることを突き止めました。それは、ジャーナリズム も、ソーシャル・プラットフォーム も、ともに弱体化させます。AIアカウントによって少なくとも一部が生成されたテキストは、2025年時点で新規Webサイトの3分の1超を占めていると、今月、スタンフォード大学、ロンドン大学インペリアル・カレッジ、Internet Archive の研究者らが発表した研究が示しています。 (研究者たちは、先行するPangramのツールを使って調査結果にたどり着いたそうです。)
とはいえ、でっち上げのシナリオは、r/AmItheAsshole のようなサブレディットにおいて珍しいことではありません。そこでは、トロールが特に突飛なフィクションを使って“反応を誘う餌”を投稿していることで知られています。それでも、見極めの得意な読者でさえ、上で説明したような比較的つまらない物語が、偽物の可能性をはらんでいるとは気づかないかもしれません。 (それを共有した投稿者は、その後削除しましたが、AIを使ったのか、また投稿で何を達成したかったのかについてのコメント依頼には返答していません。)
AI検出システムに完璧なものはありませんが、Pangramのものは複数の大学の第三者研究者によって、最も一貫していて正確だと見なされています。2025年のシカゴ大学の調査では、AI検出ソフトウェアを監査した結果、Pangramの最高評価を得ており、特に長い文章では誤検知率がほぼゼロだったと報告されています。Speroによれば、競合よりも優れている理由の一つは、AIと人間の境界に近い「より難しい例」の一部で訓練されているためだそうです。WIREDに掲載された記事でテストしたところ、誤検知を起こさせることはできませんでした。
Pangramの強化版Chromeツールは、インターネット上で日常的に目にするもののうち、どれほどがAI生成の可能性が高いのかを素早く明らかにします。
とりわけ驚くべき例があります。Pangramのツールによると、教皇の公式Xアカウントは、教皇がAIが神聖な人間の魂に与える危険について語っているスレッドでさえ、AI文が多いように見えるとのことです。
4月17日、@Pontifexアカウントはメッセージを共有し、その冒頭で「カトリック教徒はデジタル革命の文脈の中で新しいヒューマニズムの先駆者となり得る」との主張をしました。Pangramのブラウザー拡張機能は、この投稿を人が書いたものとしてラベル付けしています。しかし、その後に続く3つの投稿――人工知能がどのようにメンタリティや社会構造を形づくるかを説明する内容――は、拡張機能によってAI生成としてフラッグされます。「シミュレーションが標準になったとき、人間の見分ける力が弱まる」と、最後にAIタグ付きになった投稿は警告しています。
教皇レオ14世による、X上の他の投稿も同様に、AI検出器の“当たり”でした。ウクライナや中東における継続する戦争についての考えに加え、「より公平な富の分配」を求める呼びかけも含まれていました。
「明らかに、彼自身が自分でTwitterアカウントを運用しているわけではない」とSperoは教皇について語ります。「ソーシャルメディア担当がいる。でも、少なくともある程度のAIを使っていることも明白です。」バチカンは、この件についてのコメント要請には応じませんでした。
長文を投稿する、いわゆるブルーチェックのインフルエンサーに対して疑いを持っているXユーザーなら、Pangramがそうした投稿もたびたびAI文として見分けていることを知って納得するかもしれません。同様に、MediumのAIスラップやLinkedInのそれが不足しているわけではありません。そして、Substackのトップトレンド作者のいくつかをざっと見ただけでも、AIとしてフラッグされた投稿が山ほど見つかります。
一部のライターは、AIに書かせることにはさぞかし鼻で笑うでしょうが、多くの作者は、AI支援ツールの利用について堂々と誇らしげに語っています。テック記者のAlex Heathは、記事を書くのを手伝うためにClaude Coworkを使っており、その記事はSubstackで公開しています。さらに、彼は自分のスタイルや話し口に合わせるための具体的な指示を与えることで、Claudeを自分のように書くよう訓練したことさえあります。
ソーシャルフィードのコンテンツの中身は、ある意味、氷山の一角にすぎません。Pangram拡張機能本来の機能――オンライン上の任意のテキストをハイライトして手動でAIチェックできる――を使ってみると、たとえば4月1日の会社創立50周年の機会にAppleのティム・クック前CEOが送ったメッセージのような幅広い文章までもが、ポジティブ(AIの可能性あり)としてタグ付けされていることがわかります(Appleは、この件に関するコメント要請にすぐには応じませんでした)。
とはいえ、いくつかの人気プラットフォームで進行中のリアルタイム検出が続けば、人々が画面から受け取る情報の受け身のあり方を変え得ます。AI生成のガラクタを垂れ流す特定のアカウントを知らせるだけでなく、それがどれほど空中に漂っているのかを、常に思い出させることになるでしょう。その結果、読者はより思慮深く、懐疑的になれる可能性があります――騙しの偽装が横行する時代において、そうした資質は決して害になりません。




