【警告】「AIで書いています」と宣言した記事にスキが800ついた理由。AI記事の「バレるか」を気にする人が陥る致命的な罠船長のいない船は沈むだけとは? #生成AI #AI活用 #ChatGPT #Gemini #Claude #OpenAI #Google #ライティング #記事 #メンバーシップ #フォロワー #コンテンツビジネス
こんにちは、ポス鳥です。
窓を少しだけ開けると、ぬるい風が入ってくる。
冬のあいだ閉め切っていた部屋に、ようやく外の空気が戻ってきた季節。
デスクに置いたほうじ茶が、かすかに湯気を上げている。
その湯気を目で追いながら、私はスマホに表示された1通のDMを見ていました。
━━━━━━━━━━━━━━━━━━━━
📨 【読者からの質問】
「ポス鳥さん、AIで書いた記事って バレますか?
検出ツールに引っかからない方法ってありますか?」
━━━━━━━━━━━━━━━━━━━━
このDM、月に何通も来ます。
似た質問もたくさん届きます。
「AI判定されたら検索順位が下がるんですか?」
「noteのアルゴリズムでAI記事は弾かれるんですか?」
「読者にバレたらフォロー外されますか?」
全部、同じ不安から来ています。
AIで書いたことがバレたら、終わる と思っている。
正直に言えば、このDMを読んだとき、胸がちくりとしました。
質問の裏側に、「自分はズルいことをしているんじゃないか」という後ろめたさが透けて見える。
その気持ちは、私にもわからなくはない。
私だって、AIで記事を作っていますからね。
でもね。
はっきり言います。
質問が間違っています。
「バレるか」を気にしている時点で、あなたの記事はもう終わっている。
なぜか。
今日はその話をします。
そして最後に、「バレるか」よりもっと怖い話と、もっと大事な話をします。
最後まで読むと、たぶん少し痛い。
でも、読み終わった後のほうが楽になると思います。
この記事で何度も繰り返すことになるフレーズを、先に一つ置いておきます。
いつも言っておりますが、
船長がいれば、船の材質は問われない 。
この意味は、最後まで読んでいただければわかります。
🛡️ 第1章 AI検出ツールは、あなたの本当の敵じゃない
ほうじ茶を一口含みます。
香ばしさが舌の奥にじわっと広がる。
外から、カラスの声がかあと一つだけ聞こえて、また静かになった。
まず事実から入ります。
今現在、AI検出ツールの精度は、実はそこまで高くありません。
あなたも一度は「AI検出ツール」にかけた経験があるかもしれません。
ここ、少し学術的な話をします。
人間がAI文章を見分ける能力について、複数の研究が出ています。
最近の研究では無いのですが、2024年の研究では、一般の被験者がAIの文章と人間の文章を見分ける正解率は、 コイン投げとほぼ同じ だったという報告があります。
━━━━━━━━━━━━━━━━━━━━
📰 IEEE S&P(IEEE Symposium on Security and Privacy)(2024年)
「A Representative Study on Human Detection of Artificially Generated Media Across Countries」(Joel Frank, Franziska Herbert, Jonas Ricker, Lea Schönherr, Thorsten Eisenhofer, Asja Fischer, Markus Dürmuth, Thorsten Holz)
※ 米国・ドイツ・中国の3カ国で3,002名の被験者を対象に、AI生成メディア(音声・画像・テキスト)を見分ける能力を調査。
テキストの正解率は各国で約51〜54%(米国51.5%、ドイツ54.5%、中国52.5%)で、ほぼランダムな推測レベル。「AI生成メディアは、大多数の参加者にとって本物とほぼ見分けがつかない」と結論
📍 メディア傾向: IEEE S&P(IEEE Symposium on Security and Privacy)。情報セキュリティ分野の最高峰の国際会議。査読済み。学術的信頼性は非常に高い
URL: https://www.computer.org/csdl/proceedings-article/sp/2024/313000a159/1Ub24iZeb2U
━━━━━━━━━━━━━━━━━━━━
つまり50%前後。
当てずっぽうと変わらない。
あなたの財布に翻訳するとこうです。
あなたが3時間かけて自分の手で書いた記事に、「これAIですね」とスタンプが押される。
これ、控えめに言って理不尽でしょう。
今は精度上がっているのでしょうが、検出ツールに「バレるかどうか」は、そもそもあまり意味がないのかもしれません。
じゃあ何が本当の敵か。
読者の直感です 。
前作の「まだ弱いな」で書いた話と同じ構造です。
読者はAI検出ツールなんか基本使いません。
でも「なんかこの記事、響かないな」と感じたら、
黙ってページを閉じる。
スキも押さない。
コメントも書かない。
ただ消える。
これが一番怖い。
検出ツールに「AI率85%」と表示されるより、 読者が静かに離れるほうがよほど致命的 です。
通勤電車で考えてみてください。
スマホで記事を読んでいて、「なんか違うな」と感じたとき、あなたは何をしますか。
AI検出ツールを起動しますか。
しないでしょう?
親指でシュッと上にスワイプして、もう次の記事を読んでいる。
読者がやっているのはそれだけです。
前作「質を上げろの正体」で紹介した バースティネス の話を覚えている方もいるでしょう。
(※バースティネスとは、文章の中で文の長さやリズムにどれだけ「揺れ」があるかを示す指標です。噛み砕くと、長い文と短い文がランダムに混ざっている状態。人間の文章には自然にこの揺れがある)
AIの文章は文の長さが均一で、リズムに揺れがない。
読者の脳は 予測誤差 が起きないから、ドーパミンが出ない。
(※予測誤差とは、脳が「次にこう来るだろう」と予測したのに、実際には違うものが来たときに起きる反応です。平たく言えば「え?」という驚き。この驚きが脳を活性化させる)
読者は「読めるけど面白くない」で閉じる。
……あなたの書いた記事が「AI臭い」と思われたとき、読者がやるのは「AI検出」じゃない。
ページを閉じる だけです。
ここからです。
読者はツールなんか使わない。
読むか、閉じるか。
それだけです。
あなたの本当の敵は、検出ツールではなく、 読者の「なんか違う」 です。
これだけは覚えてください。
じゃあ、「読者にバレないように"AI臭さ"を消せばいいんでしょ?」と思ったかもしれない。
その発想が、実はもっと危険です。
━━━━━━━━━━━━━━━━━━━━
✅ 第1章の小まとめ
① 🔍 AI検出ツールの精度はコイン投げレベル
人間の正解率は約50%前後。偽陽性(人間が書いたのにAI判定)も頻発する。
② 👤 読者はツールを使わない
読者がやるのは「読む」か「閉じる」の二択だけ。検出ツールの数字を読者は見ていない。
③ 🧠 本当の敵は読者の直感
均一なリズム、予測誤差の不在、バースティネスの欠如。読者の脳は「なんか違う」を体で感じている。
④ ⚠️ 「AI臭さを消す」という発想自体が危険
次章で、なぜ危険かを掘り下げる。
━━━━━━━━━━━━━━━━━━━━
🔥 第2章 「バレないようにする」と「自分の声を入れる」は、全く違う
デスクの上で、スマホの画面がふっと暗くなります。
画面に映った自分の顔を、一瞬だけ見る。
指先でタップして、画面を点け直す。
カチッ、と小さな音。
その音だけが、静かな部屋に残ります。
ここが今日の一番大事なポイントの一つです。
「AIで書いたのがバレないようにする」技術は存在します。
語尾を変える。
言い回しを散らす。
冗長な文をわざと入れる。
誤字を意図的に残す。
こういう「 AI臭さを消す 」テクニックは、ネットにたくさん転がっています。
でもこれは「バレないようにする」技術であって、
「読者に届ける」技術ではない。
勘違いしてはいけません。
ここ、テストに出ますよ。
読者が求めているのは「AIかどうかわからない文章」じゃありません。
「 この人の文章だ 」と感じられる文章がまず第一です。
台所の言葉に直しますね。
あなたが近所のパン屋に行くとします。
ひとつめの店は、スーパーの食パンと見分けがつかないパンを売っている。
ふたつめの店は、焼き上がりの時間に行くと、店主が「今日はちょっと湿度がカラッとしているから、水分量を増やしてみた」と話してくれるパンを売っている。
あなたが通い続けるのは、どちらですか。
……パンの話ですけど、記事もまったく同じ構造です。
「 バレないようにする 」は、スーパーの食パンを手作りパンに見せかける作業です。
「 自分の声を入れる 」は、本当に手で生地を捏ねる作業です。
方向が逆。
前作「まだ弱いな」で紹介した ゲティ美術館の贋作 を覚えていますか。
14ヶ月の科学分析をパスした。
贋作は「バレなかった」
しかし。
美術の専門家は直感で「偽物だ」と見抜いた。
どれだけ精巧に偽装しても、 本物を知っている人間の直感は。そう簡単に騙せない のです。
ここ、職場で考えてみてください。
新人が書いた報告書を上司が読む。
文法は正しい。
構成もきれい。
でも上司は「なんか内容が薄いな」と感じる。
それと同じです。
読者も同じ。
検出ツールは騙せても、読者の「なんか違う」は騙せない。
正直に言います。
私自身、最初のころはAIに文章を書かせて、「いかにバレないように仕上げるか」に時間を使っていた時期があります。
ほんとに最初期ですね。ChatGPTが出始めた、数年前です。
語尾を揃えたり、「いわゆる」を「要するに」に変えたり。
当時はいろいろ試して実験もしましたが、結論から言えば、
あれは何の意味もなかった。
研究などでもわかっていることです。
あなたが時間をかけるべきは「AI臭さを消す作業」ではありません。
「 自分の痕跡を入れる作業 」です。
ところが。
「でも実際、検出ツールで判定されたらどうなるの?」とまだ気になっている人がいるでしょう。
私自身の体験と、学術的に面白い話をします。
━━━━━━━━━━━━━━━━━━━━
✅ 第2章の小まとめ
① 🍞 「バレない技術」と「届ける技術」は方向が逆
AI臭さを消す引き算は、読者に届ける足し算とは別物。
② 🎨 ゲティの贋作と同じ構造
14ヶ月の科学分析をパスしても、専門家は見抜いた。読者の直感も同じ。
③ ✍️ 変えるべきは「足す」ほう
自分の体験、自分の失敗、自分の声。これが「届く文章」の正体。
④ 🧭 読者は温度の変化を感じている
「AI臭さ」を消す時間を、「自分の痕跡を入れる」時間に振り替える。
━━━━━━━━━━━━━━━━━━━━
⚡ 第3章 検出ツールは「嘘つき」である──私の実体験
椅子の背もたれにぐっと体重を預けます。
背骨がぱきぱきと小さく鳴る。
窓の外で風がひゅうと一筋、走っていった。
その音が過ぎると、また静かになります。
私が実際に経験した話をします。
Claude(クロード)に書かせた記事を、AI検出ツールにかけたことがあります。
結果、ほぼAI判定が出なかった。
人間が書いたと判定されました。
Gemini(ジェミニ)でもありましたが、その時も人間が書いたと判定された形です。
逆に、AIなんか存在しなかった時代に 自分が手書きで書いた過去の記事 を同じツールにかけてみた。
結果、 60〜70%のAI判定 が出た。
手書きの記事が「AI」と判定され、AIが書いた記事が「人間」と判定された。
……いや、笑い話じゃないんです。
でも笑うしかなかった。
これが AI検出ツールの現実 です。
ツールが見ているのは「AIらしい文章パターン」であって、実際にAIが書いたかどうかではない。
整然と書けば人間でもAI判定される。
崩して書けばAIでも人間判定される。
あなたの通帳で考えてみてください。
銀行のシステムが「この入金は詐欺の可能性があります」と表示したとして、実際に詐欺かどうかは別の話です。
システムが見ているのは パターンであって事実ではない のです。
検出ツールの判定は、「この文章はAIっぽいパターンに似ていますか?」に対する統計的な確率です。
「この文章をAIが書きましたか?」に対する回答ではない。
ここの区別、かなり大事です。
🪦 作った本人が「使えない」と認めた話
ここで、ひとつ決定的な事実を挟みます。
2023年1月、OpenAI──ChatGPTを作った会社です──が、AI検出ツールを自ら開発して公開しました。
「AI Classifier(AIクラシファイア)」という名前のツールです。
(※AI Classifierとは、テキストがAIによって書かれたものか、人間によって書かれたものかを判定するためのツールです。噛み砕くと、「この文章、AIが書いたんじゃないの?」を判定するためにOpenAI自身が作った検出器)
ここ、大事なのはOpenAI 自身が 公開したという点です。
ChatGPTを作った会社が、自分の製品の出力を検出するツールを作った。
いわば、 泥棒が自分で防犯カメラを設置した ようなものです。
で、結果はどうだったか。
AI Classifierの正解率は 26% 。
AIが書いた文章を正しく「AIが書いた」と判定できたのは、4回に1回だけ。
一方、人間が書いた文章を「AIが書いた」と誤判定する割合── 偽陽性率は9% 。
噛み砕きます。
あなたが自分の手で3時間かけて書いた記事をこのツールにかけたとき、 約10回に1回は「これAIですね」とスタンプを押される 。
逆に、AIが書いた記事は 4回に3回は「人間が書きました」と見逃される 。
……これ、検出ツールと呼んでいいんでしょうか。
公開からわずか半年後の2023年7月20日、OpenAIはこのツールを 静かに公開停止 しました。
理由は、OpenAI自身の言葉でこう書かれています。
「精度が低いため(due to its low rate of accuracy)」
作った本人が「使えない」と認めて、引っ込めたんです。
━━━━━━━━━━━━━━━━━━━━
📰 OpenAI(オープンエーアイ)(2023年1月31日公開 / 2023年7月20日公開停止追記)
「New AI classifier for indicating AI-written text」
※ OpenAIが自社のAIテキスト検出ツール「AI Classifier」を公開した際のブログ記事。正解率26%、偽陽性率9%と自ら記載。2023年7月20日に「精度が低いため」公開停止の追記が加えられた
📍 メディア傾向: OpenAI公式ブログ。一次ソース。ChatGPTの開発元自身による公開情報
URL:
https://openai.com/index/new-ai-classifier-for-indicating-ai-written-text/
━━━━━━━━━━━━━━━━━━━━
Ars Technica(アルス・テクニカ)──アメリカの大手テクノロジーメディアです──がこのニュースを報じたとき、AI専門家のダニエル・ジェフリーズのコメントが引用されていました。
「OpenAIが自社のAI検出ツールをまともに動かせないなら、他の誰にもできない」
「AI検出ツールは蛇の油(インチキ商品)だと前から言っている。これがさらなる証拠だ。信用するな」
……かなり手厳しい。
でも、的を射ています。
━━━━━━━━━━━━━━━━━━━━
📰 Ars Technica(アルス・テクニカ)(2023年7月26日)
「OpenAI discontinues its AI writing detector due to “low rate of accuracy”」
※ OpenAIがAI Classifierを公開停止したことを報じた記事。AI専門家ダニエル・ジェフリーズの「AI検出ツールは蛇の油(インチキ商品)」というコメントを引用
📍 メディア傾向: アルス・テクニカ。アメリカの大手テクノロジーメディア。技術系ニュースにおいて信頼性が高い
URL:
━━━━━━━━━━━━━━━━━━━━
あなたの家の火災報知器で考えてみてください。
報知器メーカーが自社の製品を「誤報が多すぎるので販売停止します」と発表したとします。
あなたはその報知器をまだ天井に付けたままにしますか。
外すでしょう。
検出ツールを過信している人は、 販売停止になった火災報知器をまだ天井に付けている のと同じです。
🔬 英語が母語じゃないだけで「AI」と判定される
もうひとつ、別の角度から検出ツールの「嘘つき」ぶりを見せます。
2023年、スタンフォード大学の研究チームが衝撃的な論文を発表しました。
タイトルは「GPT Detectors Are Biased Against Non-Native English Writers」
日本語にすると「GPT検出ツールは非ネイティブの英語話者に対して偏っている」
(※この研究はスタンフォード大学のジェームズ・ゾウ教授らが行ったもので、2023年にPatterns誌(Cell Press)に査読を経て掲載されました)
研究チームは、7つの主要なAI検出ツールを使って、2種類の文章を判定させました。
ひとつめは、アメリカ生まれの中学生が書いたエッセイ。
ふたつめは、英語を外国語として学んでいる学生が書いたTOEFL(トーフル)のエッセイ。
(※TOEFLとは、英語を母語としない人の英語能力を測る国際的な試験です。日本の大学生や社会人にもなじみがあるでしょう)
結果。
アメリカ生まれの中学生の文章は、検出ツールでほぼ正しく「人間」と判定された。
ところが、非ネイティブのTOEFLエッセイは 61.22%がAI生成と誤判定 された。
6割超です。
人間が、自分の手で、試験会場で書いた文章が、「AIが書いた」と判定された。
しかも。
7つの検出ツール 全員一致 で「AI」と判定されたTOEFLエッセイが、91本中 18本(約20%) ありました。
さらに、91本中 89本(97%) が少なくとも、なんらかの検出ツールで1個以上AI判定を受けた。
……97%ですよ。
ほぼ全員。
検出ツールは「パープレキシティ」という指標を使って判定している。
(※パープレキシティとは、文章の「予測しにくさ」を数値化したものです。噛み砕くと、文章がどれだけ「意外性があるか」の指標。パープレキシティが低い=予測しやすい=「AIっぽい」と判定される)
この辺は、以前の記事にまとめてありますね。
ゾウ教授はこう説明しています。
非ネイティブの英語話者は、語彙の豊富さや文法の複雑さがネイティブより低くなる傾向がある。
結果、パープレキシティが低くなる。
つまり、 英語が母語じゃないというだけで「AI」と判定されやすくなる。
ここ、日本人として他人事じゃないですよね。
あなたが英語でブログを書いたとします。
一生懸命、自分の言葉で書いた。
それを検出ツールにかけたら「これはAIです」と言われる。
これが「検出ツールは嘘つきである」の正体の1つです。
ツールが見ているのは、 文章の複雑さのパターン であって、 誰が書いたか ではない。
ゾウ教授の結論を引用します。
「現在の検出ツールは明らかに信頼できず、容易に回避される。教育現場での解決策として使用することには、非常に慎重であるべきだ」
━━━━━━━━━━━━━━━━━━━━
📰 Patterns(パターンズ)/ Stanford HAI(スタンフォード人間中心AI研究所)(2023年)
「GPT Detectors Are Biased Against Non-Native English Writers」(Weixin Liang, Mert Yuksekgonul, Yining Mao, Eric Wu, James Zou)
※ 7つの主要AI検出ツールが非ネイティブ英語話者の文章を61.22%の割合でAI生成と誤判定することを示した論文。Patterns誌(Cell Press)に査読を経て掲載
📍 メディア傾向: Patterns誌はCell Press(セル・プレス)が発行するデータサイエンス分野の査読付き学術誌。スタンフォード大学HAI(人間中心AI研究所)のジェームズ・ゾウ教授が責任著者
URL(論文): https://www.sciencedirect.com/science/article/pii/S2666389923001307
URL(Stanford HAI解説記事): https://hai.stanford.edu/news/ai-detectors-biased-against-non-native-english-writers
━━━━━━━━━━━━━━━━━━━━
📊 2025年、精度は上がったのか──シカゴ大学ブースの検証
ここで注釈を入れます。
OpenAIのAI Classifier撤退も、スタンフォードの研究も、どちらも 2023年のデータ です。
AI検出ツールの技術も日進月歩で進んでいますから、「2023年の話でしょ? 今はもっと良くなってるんじゃないの?」と思う方もいるかもしれません。
正直に答えます。
たしかに、一部は良くなっています。
2025年12月、シカゴ大学ブースビジネススクールの研究チーム(ブライアン・ジャバリアンとアレックス・イマス)が、
主要な商用AI検出ツール3つ(GPTZero、Originality.ai、Pangram)、オープンソースのモデル1つ(RoBERTa)を対象に、約2,000の文章サンプルで性能を検証しました。
(※この研究は、ブログ・ニュース記事・小説・レビュー・履歴書など6種類のテキストを使い、4つの主要なLLM(大規模言語モデル)でAI版を生成して比較したものです)
難しいので簡単に言えば、「いろんなジャンルの文章を用意して、それぞれをAIにも書かせて、検出ツールがどれだけ正しく見分けられるか」を調べた研究です。
テストの種類も量も多い、かなり本格的な検証になっています。
結果。
商用ツール3つの 偽陽性率 ──人間が書いたのに「AI」と判定される率──は、 1%以下 まで改善されていました。
特に検出ツール。Pangram(パングラム)はほぼゼロ。
2023年のOpenAI AI Classifierが 9% だったことを考えると、偽陽性に関しては大きく進歩しています。
……ただし。
この研究には、もう一つの数字があります。
偽陰性率 ──AIが書いたのに「人間」と判定される率──は、ツールによって 2%から40% とばらつきが大きい。
モデルによっては10〜40%のAI文章を見逃しています。
さらに、オープンソースのRoBERTaは多くのケースで ランダムな推測に近い精度 しか出ず、研究チームは「高リスクな場面での使用には不適切」と結論しています。
難しいので、噛み砕くとこうです。
「あなたの文章をAIと間違える確率」は下がった。
でも「AIの文章を見逃す確率」は、
ツールによってはまだかなり高い。
鍵のかかるドアに例えましょう。
2023年のドアは、住人を締め出す(偽陽性)ことが多かった。
2025年のドアは、住人を締め出す頻度は減った。
でも、 泥棒を通してしまう頻度(偽陰性)は、ドアのメーカーによってまだばらばら 。
そして研究者自身がこう警告しています。
AI検出ツールとAI文章生成ツール、さらに「ヒューマナイザー」──AIの文章を人間っぽく書き換えるツール──の間で、 「技術的な軍拡競争(technical arms race)」 が起きている、と。
定期的な性能監査を行い、その結果を公開すべきだ、と提言しています。
━━━━━━━━━━━━━━━━━━━━
📰 Chicago Booth Review(シカゴ・ブース・レビュー)(2025年12月2日)
「Do AI Detectors Work Well Enough to Trust?」
※ シカゴ大学ブースビジネススクールのブライアン・ジャバリアンとアレックス・イマスによるAI検出ツールの性能評価。商用ツール3つの偽陽性率は1%以下まで改善されたが、偽陰性率はツールにより2〜40%とばらつきが大きいことを報告。「技術的な軍拡競争」と警告
📍 メディア傾向: シカゴ大学ブースビジネススクールの公式レビュー誌。学術研究に基づくビジネス・経済メディア。中立
URL: https://www.chicagobooth.edu/review/do-ai-detectors-work-well-enough-trust
━━━━━━━━━━━━━━━━━━━━
🏫 2025年末、教育現場で何が起きているか
もうひとつ、現場の話をします。
2025年12月、NPR(アメリカの公共ラジオ)が教育現場の実態を報じました。
メリーランド州の高校生、アイルサ・オストヴィッツさん(17歳)
エレノア・ルーズベルト高校の11年生です。
日本で言えば高校2年生です。
彼女は今年度だけで、 3回 、自分の文章をAI生成と判定されました。
そのうちの1回は、自分の好きな音楽について書いた課題です。
検出ツールが 30.76%の確率でAI生成 と判定した。
「私は音楽について書くのが好きなんです。好きなことについて、なぜAIを使うんですか?」
彼女はそう訴えた。
教師にメッセージを送ったが、返事はなく、成績が下げられた。
もうひとつ。
オハイオ州クリーブランドの学区で英語を教えるキャリー・コファーさん。
彼女は実験として、自分のPh.D.(博士号)の学位論文の 1章 をAIツールにかけてみた。
結果、 89〜91%がAI生成 と判定された。
自分の博士論文が。
「いや、それは全部自分のものですよ」
彼女はそうコメントしています。
……これ、2025年12月の話です。
2023年の話じゃない。
同じNPRの記事で、学術的誠実性の研究者マイク・パーキンス(英国ベトナム大学)はこう言っています。
「これらのツールが目的に適していないということは、学術的誠実性の分野ではすでにかなり確立されています」
噛み砕くと、「AI検出ツールは"カンニングを見抜く道具"としては使い物にならない、というのが専門家の間ではもう常識になっている」ということです。
ツールが信頼できないことは研究で示されている。
でも教師は使い続けている。
そして生徒の成績が下げられている。これが今の現実です。
━━━━━━━━━━━━━━━━━━━━
📰 NPR(エヌピーアール)(2025年12月16日)
「AI detection tools are unreliable. Teachers are using them anyway」
※ アメリカの教育現場でAI検出ツールが引き起こしている問題を取材した記事。
高校生が自分の文章をAI判定され成績を下げられた実例、教師が自身の博士論文の1章をGPTZeroにかけたところ89〜91%AI判定された証言、教師の40%以上がAI検出ツールを使用しているという調査データなどを報告
📍 メディア傾向: NPR(National Public Radio)。アメリカの公共ラジオネットワーク。中立。教育・社会問題の報道に定評がある
URL: https://www.npr.org/2025/12/16/nx-s1-5492397/ai-schools-teachers-students
━━━━━━━━━━━━━━━━━━━━
つまり、こういうことです。
2023年に比べれば、ツールの精度は、部分的には改善されている。
でも、 構造的な問題は何も変わっていない 。
ツールが見ているのは依然として「パターン」であって「事実」ではない。
ツールによって性能はばらばら。
そして現場では、2025年の今でも、人間が書いた文章がAI判定されて成績を下げられている。
博士論文の1章が90%AI判定される。
進歩は認めます。
でも「もう信頼できるレベルになった」とは、まだ言えない。
⚙️ いたちごっこは終わらない
「でもこのまま技術が進化すれば、いずれ完璧な検出ツールが出るんじゃないの?」という声もあるでしょう。
ここは構造の話をします。
検出ツールとAI文章生成ツールは いたちごっこ の関係です。
検出精度が上がれば、生成側もパターンを変える。
どこまで行っても「完璧な検出」には到達しない構造になっています。
シカゴ大学ブースの研究チームが 「技術的な軍拡競争(technical arms race)」 と呼んだのは、まさにこの構造です。
しかも、スタンフォードの研究では、もうひとつ恐ろしい事実が示されています。
学生がAIで書いた文章を「もっと文学的な言葉遣いで書き直して」とChatGPTに頼むだけで、
検出ツールを簡単にすり抜けました。
ゾウ教授の言葉を借りれば、「プロンプトエンジニアリング」──AIへの指示の仕方を少し工夫するだけで、検出は回避できる。
そして2025年には、AIの文章を入力すると、人間が書いたように書き換えてくれるツールなども出てきました。
先ほどのインタビュー記事で、オハイオ州の教師コファーさんはこう言っています。
「子どもたちは遅かれ早かれ回避する方法を見つけるでしょう」
つまり、検出ツールは正直な人間を「AI」と誤判定し、ズルをする人間は簡単にすり抜ける。
……控えめに言って、構造が壊れています。
自分の手書きが70%「AI」と出て、AIが書いた記事が「人間」と出る。
作った会社が「精度が低い」と認めて引っ込める。
非ネイティブの人間が書いた文章の6割が「AI」と判定される。
2025年になっても博士論文の1章が90%AI判定される。
AIで書いた文章に「文学的に書き直して」と頼むだけですり抜ける。
この数字を基準にして、あなたは何を判断できますか。
何も判断できない。
揺れる数字にしがみついている限り、あなたの判断も揺れ続けます。
もっと揺れないものを基準にする必要があるのです。
━━━━━━━━━━━━━━━━━━━━
✅ 第3章の小まとめ
① 🔄 検出ツールの逆転現象
AI記事が「人間」判定、手書き記事が「AI」判定。ツールが見ているのはパターンであって事実ではない。
② 🪦 作った本人が匙を投げた
OpenAIが自社のAI検出ツール「AI Classifier」を精度の低さを理由に公開停止(2023年7月)。正解率はわずか26%。
③ 🔬 非ネイティブ話者への偏り
スタンフォード大学の研究(2023年)で、非ネイティブのTOEFLエッセイの61.22%がAI生成と誤判定。英語が母語でないだけで「AI」扱いされる構造的欠陥。
④ 📈 2025年、偽陽性は改善──でも構造は変わらない
シカゴ大学ブースの研究で商用ツールの偽陽性率は1%以下に改善。ただし偽陰性率は2〜40%とばらつきが大きく、現場では2025年末でも博士論文の1章が90%AI判定される事例が続いている。
⑤ ⚙️ いたちごっこは終わらない
検出ツール、生成AI、ヒューマナイザーの三つ巴の「技術的軍拡競争」。正直な人間が誤判定され、ズルをする人間はすり抜ける構造。
⑥ 📉 揺れる数字を基準にするな
判定が逆転するツールの数字では何も判断できない。揺れない基準が必要。
━━━━━━━━━━━━━━━━━━━━
💡 第4章 「バレたらどうしよう」から「届いたかどうか」へ──問いを変えろ
ほうじ茶が冷めています。
口をつけると、とろんとした渋みが舌に残る。
香ばしさが消えて、ただの薄い液体になっている。
まあいいです。
冷めたほうじ茶には冷めたほうじ茶の味がある。
その渋さが、いまの話にちょうどいい。
ここで問いの転換をします。
「バレるか?」は 自分を守るための問い です。
「届いたか?」は 相手に届けるための問い です。
意識が自分のほうを向いている限り、文章は読者に届きません。
前作「質を上げろの正体」で書いた通り、質は受け手が決める。
あなたが「バレないかどうか」を気にしている間、読者は「この記事は自分に関係があるか」だけを見ています。
会社の会議で考えてみてください。
プレゼンしている人が「このスライド、パクったのバレないかな」と気にしている。
ですが、実際には
聞き手が見ているのは「このプレゼンは自分の仕事に関係あるか」だけです。
ここからです。
ここで、データの話をします。
今までの記事でも紹介した数字をいくつか並べます。
ひとつめ。
AI+人間のハイブリッドコンテンツは、
パフォーマンスが良い傾向にある。
SEOツールを提供している、SEMrush(セムラッシュ)の2024年の調査では、AIと人間のハイブリッドで制作したコンテンツは、人間だけのコンテンツより 検索パフォーマンスが高い 傾向にあると報告されています。
ふたつめ。
AIだけのコンテンツは読者が離脱しやすい。
複数のマーケティングリサーチで、AI単独で生成されたコンテンツは 直帰率が高くなる傾向 にあることが指摘されています。
簡単に言えば、別ページを読んだり、プロフィールをクリックすることなく、ページを閉じる確率です。
RankScience(ランクサイエンス)──アメリカのSEO分析会社です──の2025年の分析では、未編集のAIコンテンツはバウンスレート(読者が他のページに移動せずにすぐ離脱する率)が65%に達するとされています。
あなたのお客さんの動きで考えてみてください。
せっかく書いた記事に読者が来ても、すぐに帰ってしまう。
お客さんが店に入って、メニューを見て、何も注文せずに出て行くのと同じです。
家賃は払い続けているのに、売上はゼロ。
……きつくないですか。
みっつめ。
Reuters Institute(ロイター・ジャーナリズム研究所)の2026年予測レポートでは、多くが
「AIの出力はそのまま公開できるレベルではない」と回答しています。
大幅な人間の手入れが必要だ、というのが現場の認識です。
ようするに、こうです。
「 AIだけ 」は読者が逃げる。
「 AI+人間の手入れ 」が最強。
AIだけでは弱い。
人間の手が入ると強くなる。
ここはブレないわけです。
「届いたかどうか」を確認する方法は比較的、簡単です。
スキの数を見ろ。
コメントを見ろ。
読者のDMを見ろ。
検出ツールの数字なんか見ている暇があったら、
読者の反応を見ろ 。
ということです。
そして「届く文章」にするために、前作でも紹介したチェックシート7項目が使えます。
1つめ、固有の体験が入っているか。
2つめ、書き手の態度が見えるか。
3つめ、文のリズムが均一すぎないか。
4つめ、感情が1箇所以上漏れているか。
5つめ、脱線が1つ以上あるか。
6つめ、弱みを1つ見せているか。
7つめ、声に出して読んだとき自分の声に聞こえるか。
この7項目のどれか1つでも入れれば、「届く」確率は上がる。
そして面白いことに、これをやれば結果的に「バレない」も解決します。
なぜか。
検出ツールが見ているのは「AIらしいパターン」──均一なリズム、態度表現の不在、感情の不在、構造の整然さ。
チェックシートの7項目は、その パターンの真逆を入れる作業 です。
固有体験を入れれば、AIの学習データにないノイズが混ざる。
感情を漏らせば、文体に揺れが生まれる。
脱線を入れれば、AIの「きれいな構造」が崩れる。
結果、パターンが 自然に壊れる のです。
船長がいれば、船の材質は問われない 。
2回目です。
このフレーズの意味が、少し深くなったでしょうか。
「届ける」に集中すれば、
「バレない」は副産物でついてくる。
逆は成り立たない。
「バレないようにする」だけでは、届く文章にはならない。
「届ける」に集中しろ、はわかった。
でも「バレるかどうか」を完全に無視していいのか?
実は、もっと大きな話があります。
「バレるかを気にする」どころか、「AIを使ったと言わないこと」自体がリスクになる時代が、もう来ています。
━━━━━━━━━━━━━━━━━━━━
✅ 第4章の小まとめ
① 🔁 問いを変えろ
「バレるか?」は自分を守る問い。「届いたか?」は読者に届ける問い。方向が違う。
② 📊 AI+人間の手入れが強い傾向
複数のマーケティングリサーチが方向性を示している。数字は傾向値だが、結論はブレない。
③ 📋 チェックシート7項目が「届く」と「バレない」を同時に解決する
固有体験・態度・リズム・感情・脱線・弱み・自分の声。
④ 🚢 「届ける」が先、「バレない」は後
順番が大事。届ける技術を磨けば、バレないは副産物でついてくる。
━━━━━━━━━━━━━━━━━━━━
⚠️ 第5章 「隠す」がリスクになる時代が来ている──EU AI Act第50条とブリュッセル効果
白湯を淹れました。
ほうじ茶を飲み切ったあとの湯呑みに、ぽこぽこと湯を注ぐ。
白い湯気がふわっと上がって、すぐに消える。
窓の外が少しだけ暗くなってきました。
春の日は長いけれど、夕方の気配はもう来ている。
ここで視点を変えます。
「バレるか気にする」どころか、
「AIを使ったと言わないこと」自体がリスクになる 話です。
EU AI Act(欧州AI規制法)第50条
2026年8月施行予定 。
(※EU AI Actとは、EUが2024年に成立させたAIに関する包括的な規制法です。噛み砕くと、「AIを使うときのルールブック」。世界で初めて、AI全般を体系的に規制する法律です)
この辺は地政学の話で依然しましたね。
この第50条で、AI生成コンテンツには 透明性義務 が課されます。
具体的には、ラベル表示が義務化。
テキストについても、公共の利益に関わる情報を公開する場合は、AI生成であることの開示義務が生じます。
ただし、ここに面白い除外規定があります。
人間が編集レビューを行い、編集責任者がいる場合 は、この開示義務は免除されるのです。
つまり、AIで下書きを作って自分でちゃんと手を入れ、自分が責任者として名前を出しているなら、現時点の条文上はセーフの可能性が高い。
だからこそ、「船長がいるかどうか」が法的にも意味を持ってくるんです。
ここ、あなたの家計に寄せますね。
あなたがAIで作ったニュース記事や解説記事を公開するとき、「これはAIで作りました」と書かなきゃいけなくなる。
書かなかったら、法的なリスクが生じる。
リスクと言いましたが、具体的に言いましょう。
EU AI Actの罰則は3段階に分かれています。
最も重い「禁止行為」への違反は最大3500万ユーロまたは全世界年間売上高の7%。
第50条の透明性義務違反はその次のランクで、最大 1500万ユーロ 、または全世界年間売上高の3%のいずれか高い方です。
日本円にすると、ざっくり 約25億円 。
東京ドーム1個分の建設費くらいの金額です。
(※個人ブロガーに直接この罰金が科される可能性は現時点では低いですが、方向性は明確に「罰則付きの義務化」です。プラットフォームやコンテンツ配信事業者にとっては無視できない金額です)
「でもEUの法律でしょ? 日本には関係ないよね?」





