AI Navigate

【AIでバズる記事を作るには?】Google検索とnoteアルゴリズムが優遇する「本当の一次情報」を見極める。読まれ続ける記事を生む5つのチェックリスト。 #生成AI #毎日更新 #メンバーシップ #ChatGPT #ライティング #一次情報 #note #文章術 #記事 #AI活用

note / 3/16/2026

💬 OpinionSignals & Early TrendsIdeas & Deep AnalysisTools & Practical Usage

Key Points

  • Google検索とnoteアルゴリズムが「一次情報」を優遇する仕組みと活用法を解説。
  • 読まれ続ける記事を生む5つのチェックリストを具体的に紹介。
  • 生成AIを活用しつつ信頼性と再現性を重視する実践的ワークフローを提案。
  • 記事企画・執筆・編集・拡散に関わる複数職種へ波及する実務的影響を整理。
見出し画像

【AIでバズる記事を作るには?】Google検索とnoteアルゴリズムが優遇する「本当の一次情報」を見極める。読まれ続ける記事を生む5つのチェックリスト。 #生成AI #毎日更新 #メンバーシップ #ChatGPT #ライティング #一次情報 #note #文章術 #記事 #AI活用

274

こんにちは、ポス鳥です。

庭先の花木が、まだ固い蕾のまま、枝の先で じっと何かを待っています

3月の富山。

空気にはまだ 冬の名残 がこびりついていますが、朝方だけ、ほんの一瞬、風にあたたかい層が混じるようになりました。

今朝は少し奮発して、手回しのミルで深煎りの豆を挽きました。

ゴリゴリ、ゴリゴリ。

ハンドルを回すたび、掌に伝わる豆が砕ける抵抗感と、鼻腔を満たす チョコレートのような香り が、寝ぼけた脳を叩き起こしてくれます。

ドリッパーに湯を注ぐと、粉がもこもこと膨らんだ。

鮮度がいい証拠です。

落ちてくる黒い雫を、ただぼうっと眺めます。

何も考えない時間。

でも、頭の片隅にはずっと、ある「問い」が引っかかっていました。


📨 【読者からの質問】


ポス鳥さん、前回の「AIで脳が腐る」の記事、すごく面白かったです。

「一次情報に当たれ」「箱は自分の手で開けろ」というメッセージは心に刺さりました。でも、ふと思ったんです。

ポス鳥さん自身もAIを使って記事を書いていますよね?

それは一次情報なんですか?二次情報なんですか?

あと、noteの深津さんが「一次情報を優先する」ってアルゴリズム方針を出しましたが、そもそも一次情報って何なのか、考えれば考えるほど分からなくなってきて……。


ありがたい質問です。

前々回の記事には 544スキ もいただきました。(執筆時点)

前回の続編にも大きな反響をいただいた。

心から感謝しています。


まだ読んでいない方のために、前回・前々回の記事のリンクを置いておきます。

(※前々回の記事URL)

(※前回の記事URL)

noteの深津さんの記事はこれのことですね。


実はあの2本の記事を公開してから、私も考えていたことです。

「一次情報に当たれ」と偉そうに書いた、その記事そのものが、AIを使って論文を検索し、AIで草稿を作り、AIに翻訳を手伝わせて完成させたものだからです。


……あなたから見て、あの記事は「一次情報」でしたか。

それとも「AIが生成した二次情報」でしたか。

そもそも、一次情報とは厳密には何か?


じつは、この問いに正面からぶつかると、足元がぐらりと揺れるような、 底の見えない穴 が口を開けます。

そしてその穴の底には、あなたの記事が Google検索で上位に出るかどうかAI検索に引用されるかどうかnoteのアルゴリズムに選ばれるかどうか という、極めて実利的な問題が眠っていると思っています。


先に数字を1つだけ置きます。

2025年の通年調査で、ChatGPTやPerplexity(パープレキシティ)といったAI検索が日本のコンテンツを引用する際、Wikipedia(28.4%)に次ぐ 第2位がnote.com(19.2%) だったという事実。

COOD社の調査です。


📰 COOD株式会社(クード)(2026年1月1日)

2025年調査で判明、『ググる』時代の終焉とAI検索の覇者。AIに『指名される企業』引用元ランキング日本版を公開

※ ChatGPTやPerplexityなど主要AI検索が2025年に日本のどのドメインを引用したかをまとめた通年調査レポート

📍 メディア傾向: クードは日本の生成AI検索最適化サービスを展開するスタートアップ。AI引用データの一次集計元として国内では数少ない

URL:



あなたの生活に落とすならこうです。

AIに何か質問した時、AIが「参考にしました」と引っ張ってくるサイトの、 5件に1件がnote だということです。


GoogleもE-E-A-T(Experience=実体験を最重視)を2026年の中核ランキング要因に据えている。

(※E-E-A-Tとは、
 
Experience=体験、
Expertise=専門性、
Authoritativeness=権威性、
Trustworthiness=信頼性の頭文字。

 
Googleが「この記事は信頼できるか」を判断するときの 4つの基準 です。2022年に「体験」のEが追加されたのが大きな転換点でした)

noteの深津貴之氏も「一次情報と生の体験の記録を 最優先で推す 」とアルゴリズム方針を明言しました。


ひと言で言えばこういうことです。

Google検索でも、AI検索でも、noteのアルゴリズムでも、「一次情報」を持っている人間が圧倒的に有利になる時代が、すでに来ている。

では、その「一次情報」とは、いったい何なのか?

論文を読めばいいのか。

体験記を書けばいいのか。

前回AIを使って書いた私の記事は、一次情報なのか二次情報なのか。

今日はこの問いに、哲学と最新の認知科学を武器にして、切り込みます。


そして最後に、あなたの記事が「AIや検索エンジンに一次情報として選ばれる」ための 具体的なチェックリスト を置いて帰ります。


冷めないうちに、コーヒーをもう一口。

覚悟してください。

今日の話は前回よりも、 もう一段深いところ へ潜ります。


🧠 第1章:「同じ論文を読んで、同じ疑問を持った科学者がいた」── 一次情報の揺らぎ

ドリッパーから最後の一滴が落ちるのを見届けてから、私はタブレットの画面に目を戻しました。

前回・前々回の記事を書いてから、あのMIT論文(「Your Brain on ChatGPT」)の周辺に出てきた批判や分析記事を、ぽつぽつと 追いかけていた のです。


あの論文をまだ読んでいない方のために、ごく手短に。

54人の大学生 を3グループに分けて、4ヶ月間エッセイを書かせた実験です。

自力だけのグループ、Google検索を使うグループ、ChatGPTを使うグループ。

4回目のセッションで 自力グループとChatGPTグループを入れ替えた


前々回の記事では、この論文がSNSで「MITが科学的に証明!AIで脳が腐る!」というデマに変異していった過程を解剖しました。

前回の記事では、メディアが「絶望」としか読まなかったセッション4のデータの中に、実は 「希望」が埋まっていた ことを掘り起こしました。

AIを3ヶ月使った後に初めて自力で書いた学生の脳活動は、ずっと自力で書いてきた学生の初回を 上回っていた

シュレーディンガーの猫の思考実験と重ねて、「データは読み方次第で絶望にも希望にもなる。 箱は自分の手で開けろ 」という話をしました。


詳細はそれぞれの記事を読んでいただくとして。

今回、私がハッとしたのは、 同じ論文を読んで、同じ疑問を持ち、同じ結論に辿り着いた科学者がいた という事実です。

ピーター・アティア氏。

米国の医学博士で、 長寿医学の専門家 として知られる人物です。


📰 Peter Attia(ピーター・アティア)(2025年6月28日)

Thinking critically about a new study on AI and cognition

※ MIT論文のセッション4のデータを丁寧に読み解き、メディアの過大解釈を批判した医学者による分析記事

📍 メディア傾向: ピーター・アティアは米国の医学博士で長寿医学の専門家。エビデンスに基づく冷静な分析に定評がある。個人ブログだが学術的な話をまとめている。

URL:



アティア氏の分析記事を読んだとき、私は思わず 膝を打ちました

彼はこう書いていた。

「セッション4のChatGPT→自力グループの脳活動は、自力グループのセッション1よりも 高かった

「彼らの脳が損傷を受けたのなら、 セッション1以下になるはずだ 。しかしそうはならなかった」

「この研究は、AIの使用が認知能力を損なったことではなく、認知的 関与(engagement) を減らしたことを示している」

(※「認知的関与」とは、脳がどれだけ本気で取り組んでいるか、という度合いのことです。平たく言えば、 「能力が壊れた」のではなく「本気を出す機会が減った」だけだ 、というのがアティア氏の読み方です)

前回の記事で私が「猫は生きていた」と書いたのと、


ほぼ同じ着眼点 です。


日本から遠く離れている側で、まったく別の文脈で、同じ論文を読み、同じ数字に引っかかり、 同じ結論 に辿り着いた人がいた。

……正直に言います。

これは嬉しかったのと同時に、 恐ろしかった 。


なぜか。

「一次情報に当たれ」と私は前々回書きました。

実際に論文を読み直し、自分なりの解釈を出した。

でも、アティア氏も同じ論文を読み、同じ解釈を出していた。

私たちは同じ一次情報に当たり、同じ結論を得た。


しかし同時に、世界中のメディアやインフルエンサーも 同じ一次情報 に当たり、

正反対の結論 を出していた。


「AIで脳が腐る!」と。

同じPDF。

同じ数字。

同じ英語の文章。


なのに、読む人間が違うだけで、結論が真逆になる。


あなたの会社の会議を想像してみてください。

同じ売上報告書を見ているのに、営業部長は「 絶好調だ 」と言い、経理部長は「 このままだと赤字だ 」と言う。


数字は一つ。

でも、 どの数字に目が止まるか で、結論がひっくり返る。

……あなたの職場でも、心当たりがありませんか。


同じ会議資料なのに、あの人とこの人で受け取り方がまるで違う。

数字は 見る人の問いに合わせて、姿を変える のです。

同じことがMIT論文でも起きていた。


ここで、前回の「シュレーディンガーの猫」の比喩が、さらに深い意味を持ち始めます。

箱の中の猫の生死は、 箱を開ける前は確定していない

一次情報もまた、 読者の「問い」が確定するまで、真実と誤解が重なり合っている

「一次情報に当たった」つもりでも、自分がどんな問いを持って読むかによって、見える景色はまったく異なる。


私とアティア氏は、「本当にデータは絶望だけを示しているのか?」という問いを持って読んだ。

だからセッション1との比較に目が止まった。

メディアは「この研究はAIの危険性を証明しているのか?」という問いを持って読んだ。


だからセッション3のピークとの差だけを切り取った。

一次情報は、「読んだ」だけでは一次情報にならない。

「どう読んだか」が、情報の姿を確定させる。


ここから、今回の記事の本題が始まります。

「一次情報に当たれ」というアドバイスは、いったい何を意味していたのか。

そもそも 一次情報とは何なのか

この問いを、哲学と最新の認知科学を使って掘り込んでいきます。


✅ 第1章の小まとめ

🔬 同じ結論に辿り着いた科学者 ── ピーター・アティア氏(米国医学博士)もMIT論文を独自に分析し、「セッション4のデータは脳の損傷ではなく認知的関与の低下を示している」と結論。筆者の前回記事と同じ着眼点だった。

⚛️ 問いが情報を変える ── 同じ論文を読んでも、「AIの危険性を探す」問いで読めば恐怖の結論が出て、「データに希望はないか」問いで読めば希望の結論が出る。一次情報は読者の問いによって姿を変える。

📖 一次情報は「読んだ」だけでは足りない ── 一次情報に当たることは必要条件だが十分条件ではない。「どう読んだか」が情報の意味を確定させる。ここから「一次情報とは何か」という本題に入る。


🔑 第2章:一次情報の定義は崩壊している ── テセウスの船と「理解の錯覚」

ミルに残っていた豆の粉末を指で払い、換気のために窓を少しだけ開けました。

湿った3月の空気が、コーヒーの残り香と混じって、 鼻先をくすぐります

遠くでカラスが一声、鳴きました。

第1章で、「一次情報は読んだだけでは一次情報にならない」という、背筋が冷たくなる話をしました。

ここからもう一段、掘り下げます。

そもそも「一次情報」とは何なのか?

あなたは当たり前のようにこの言葉を使っていますが、実はこの定義そのものが、AI時代に入って 根底から揺らいでいる のです。

🚢 テセウスの船、ふたたび

古代ギリシャに「テセウスの船」という有名なパラドックスがあります。

紀元1世紀の歴史家プルタルコスが記録した話です。

(※プルタルコスはギリシャの歴史家・哲学者。「英雄伝」で知られ、彼が残した逸話は 2000年以上経った今も西洋哲学の教科書に載っています

英雄テセウスが乗っていた船を、港に保存していた。

しかし木材が腐るので、朽ちた板を 1枚ずつ新しい板に交換 していった。

やがて、すべての板が新品に入れ替わった。

さて、この船はまだ「テセウスの船」なのか?



あなたの台所で言い換えましょう。

おばあちゃんから受け継いだ味噌汁のレシピ。

「味噌は信州味噌、出汁は昆布とかつお、具は豆腐とわかめ」

でもあなたは、同じ味噌や具材でも購入店を変えた味噌を変え、出汁を変え、具を変えた。

最後の一要素が変わった時。

……それはまだ

「おばあちゃんの味噌汁」ですか?

もう「あなたの味噌汁」ですか。


味噌も、出汁も、具材も表向きは一緒。でも、全部変えた。

どこから、おばあちゃんので、

どこから、あなたのですか?



答えに 詰まります よね。

テセウスの船ならば「板」が1枚ずつ入れ替わっている。

どこかの時点で「別の船」になったはずなのに、その 境界線が引けない

前々回の記事で「情報の引き算」を語りました。

MIT論文(206ページ)が、TIMEの記事になり、SNSの140文字になる。

部品が 1枚ずつ剥がされていく

これがテセウスの船の構造です。

しかし今回、もう一つ気づいたことがあります。

情報の板を「剥がす」のは、メディアやインフルエンサーだけではない。

あなた自身も、剥がしている。

たとえば、あなたが206ページの原文PDFを開いたとします。

あなたの脳は、英語を日本語に変換し、自分の経験や文脈に引きつけて解釈し、206ページのうち

記憶に残った部分だけ を保持します。


その瞬間、厳密に言えば、あなたの脳の中にある「論文の情報」は、もう原文そのものではない。

板が何枚も入れ替わっている。

一次情報に「到達した」と思った瞬間、それは既にあなたというフィルターを通った「別の船」になっている。

……怖いことを言っているのは、分かっています。

でも、この構造に気づいてしまった以上、見ないふりはできません。

🔬 「理解の錯覚」── 科学者ですらハマる罠

「いやいや、さすがに206ページの原文を読めば、SNSの140文字よりは マシ だろう」

画面にツッコミを入れた方、いるでしょう。

その直感は、半分正しく、 おそらく半分危うい

2024年、Natureに掲載されたメセリ氏とクロケット氏の論文が、まさにこの「半分危うい」部分を暴いています。


論文の紹介の前に、著者の紹介です。

リサ・メセリ(Lisa Messeri)氏は、イェール大学の人類学者です。

宇宙探査の現場から科学技術の文化的影響まで、「人間が新しいテクノロジーとどう関わるか」を研究してきた方です。


もう一人のモリー・クロケット(Molly Crockett)氏は、プリンストン大学の心理学・神経科学の教授で、

「人間はどうやって道徳的な判断を下すのか」を脳の仕組みから解き明かしてきた方です。


つまり、「テクノロジーが人間の文化をどう変えるか」の専門家と、「人間の脳がどう考え、どう判断するか」の専門家


この二人が2024年3月、世界最高峰の科学誌Natureに共同で論文を発表しました。

タイトルは「Artificial intelligence and illusions of understanding in scientific research」——「AIと、科学研究における"理解の錯覚"」です。


📰 Nature(ネイチャー)(2024年3月)

Artificial intelligence and illusions of understanding in scientific research

※ 科学者がAIを研究に使うことで「理解した気になる錯覚」に陥る危険性を警告した論文

📍 メディア傾向: ネイチャーは世界最高峰の学術誌の一つ。査読済み。科学報道の信頼性は極めて高い

URL:



2人が指摘しているのは、こういうことです。

AIは膨大なデータを処理し、「それっぽい答え」を驚くほどスムーズに出してくれる。

するとそれを受け取った人間は、「なるほど、わかった」と感じてしまう。


でも実際には、その答えの裏にある因果関係を自分の頭で理解したわけではない。

AIが出してくれた結論を、まるで自分で考えたかのように錯覚しているだけ——これが「理解の錯覚(illusions of understanding)」です。


難しいですね。もっとかみ砕きましょう。

メセリ氏とクロケット氏が言っていることを、ものすごく簡単に説明します。

AIに何かを聞く。

すると、めちゃくちゃ丁寧で、読みやすくて、もっともらしい答えが返ってくる。

それを読んだあなたは、

「なるほど、わかった」と感じる。


でも、ちょっと待ってください。

それは本当に「わかった」んでしょうか?

ということです。


友達の話に置き換えてみます。

あなたのクラスに、めちゃくちゃ頭のいい友達がいるとします。

テスト前日、その友達に「ここってどういう意味?」と聞いたら、すごくわかりやすく教えてくれた

「あー、そういうことか!なるほどね!」

あなたはそう思った。完全に理解した気分になった。

でも次の日、テスト本番。

同じ問題が出た。

……書けない。


「あれ? 昨日わかったはずなのに……」

この経験、ありませんか?

友達の説明を聞いて「わかった気になった」だけで、自分の頭の中には何も残っていなかった。これが「理解の錯覚」です。


AIがやっていることは、まさにこの「頭のいい友達」と同じです。

しかも、24時間いつでも、どんな質問にも、嫌な顔ひとつせずに答えてくれる友達。便利すぎて、自分で考える必要がなくなる。



もう一つ、別のたとえを出します。

あなたは毎日、同じ通勤電車に乗っているとします。

10年間、同じ路線。同じ駅。同じ乗り換え。

「自分はこの路線を完璧に知っている」と思っている。


でも、こう聞かれたらどうでしょう。

この路線、なんでここで急カーブしてるの?

この駅、なんでこの場所に作られたの?

……答えられないですよね。


もっと身近な話をしましょう。

10年通った道の、コンビニの隣に何の店があったか。

急に聞かれると出てこない。

毎日見ているはずなのに。

「見ている、聞いている」ことと「覚えている・理解している」ことは、まったくの別物なのです。


メセリ氏とクロケット氏が恐ろしいと言っているのは、この現象がAIを使う場面で加速するということです。

しかも、科学者ですらこの錯覚にハマると指摘しています。

科学者ですよ? 

毎日データを読んで、論文を書いて、事実かどうかを検証するのが仕事の人たち

そのプロでさえ、AIの「それっぽい答え」を受け取ると、

自分で考えたかのように錯覚してしまう。


ましてや、私たちが日常でAIに「これ調べて」「まとめて」「教えて」と頼むとき——同じことが起きていないはずがない


ここから、話が一気につながります。

この「理解の錯覚」は、論文を読む行為にもそのまま当てはまるのです。

たとえば、MIT論文「Your Brain on ChatGPT」の206ページのPDFを開いたとします。

目で文字を追った。

「うんうん、被験者54人、EEG測定、セッション4で入れ替え、なるほどなるほど」

読んだ。たしかに読んだ。

しかし。

研究者が実験中に感じた「あれ、この被験者の脳波データ、なんか変だな」という直感。

電極にノイズが入ったとき、「これはデータから外すべきか、残すべきか」と悩んだ数秒間の判断。

あの被験者、もしかして寝不足だったかもしれないという、論文には書けなかった懸念。

そういった「論文のどこにも書かれていない、研究者の頭の中にだけあった判断や迷い」——これを暗黙知(あんもくち)と呼びます。読んで字のごとく、「黙ったまま表に出てこない知識」のことです。


これは、どんなに丁寧に論文を読んでも、

絶対にあなたには伝わりません。


なぜなら、書いてないからです。

つまり、

活字になった瞬間に、すでに失われている情報がある。


一次情報を「読んだ」ことと、「実際、その場で理解した」ことの間には、太平洋くらい広い溝があるのです。

原文を読んだとしても、テセウスの船みたく、あなたの頭に入るころには板が何枚も変わっている。

AIで要約させても、理解の錯覚のように、本当の意味であなたは理解してないことになる。

まるで今日は、哲学みたいな話をしていますね。


✅ 第2章の小まとめ

🚢 テセウスの船パラドックス ── 論文を読む行為そのものが、翻訳・解釈・省略というフィルターをかけており、読んだ瞬間に「純粋な一次情報」は消失している。一次情報への到達は原理的に不完全である。

🔬 理解の錯覚 ── 科学者ですらAIの出力を「理解した」と錯覚する(Nature, 2024年)。論文を「読んだ」ことと「理解した」ことの間には巨大な溝がある。

🧭 Googleの転換点 ── GoogleがE-A-TにExperience(体験)を追加した理由は、AIが要約できる時代に「読んだ」だけでは差別化にならないから。「自分の手で触った」事実だけが不可侵の価値を持つ。


⚔️ 第3章:AIは「あなたの脳の一部」か「他人」か ── 拡張された心 vs 代理的知者

食卓のテーブルに置いたタブレットの画面が、スリープから勝手に目覚めました。

通知の光が、天井に一瞬、 白い四角を映します

外では、雨が降り始めたようです。

窓ガラスに当たる水滴の音が、 不規則なリズム で部屋を満たしていく。


前章で、「一次情報(原文)を読んでも、要約を読んでも、読んだ瞬間にそれは変質する」という、なかなかに哲学的な話をしました。

では、AIを使って書いた文章は、いったいどちら側なのか。

体験談を入れたとしても、すでに自分の体験とズレているのだから、一次情報と言えるのかどうか、


「自分の一次情報」なのか。

「AIという他者が生成した二次情報」なのか。


この問いに対して、 真っ向から対立する2つの最新理論 が存在します。


🧩 「拡張された心」── AIはあなたの脳の一部だ

2025年5月。

ここで、もう一人の重要人物を紹介します。

アンディ・クラーク(Andy Clark)氏。イギリスのサセックス大学の哲学者です。


哲学者といっても、難しい本を読んで「うーむ」と考えているだけの人ではありません。


クラーク氏が取り組んでいるのは「認知哲学」——ものすごく簡単に言うと、「人間の"考える"って、いったいどこで起きてるの?」という問いです。


普通に考えたら、「そんなの脳に決まってるじゃん」と思いますよね。

クラーク氏は、1998年に「いや、脳の中だけじゃないかもしれない」と言い出した人なのです。



これだけだと「何言ってんだこの人」と思うかもしれないので、クラーク氏が論文で使った有名なたとえ話を紹介します。

二人の人物がいます。インガさんオットーさん


インガさんは記憶力が普通の人です。

「ニューヨーク近代美術館はどこにある?」と聞かれたら、頭の中の記憶をたどって「53番街だよ」と答えます。


オットーさんはアルツハイマー病で、記憶がうまく保てません。でもオットーさんはいつもノートを持ち歩いていて、大事なことは全部そこに書いてある。

「美術館はどこ?」と聞かれたら、ノートを開いて「53番街だ」と答えます。


さて、ここでクラーク氏の問いです。

インガさんが「脳の記憶」を使って答えたのと、オットーさんが「ノート」を使って答えたの——

この二つ、本質的に何が違うんですか?


結果は同じ。プロセスも、「どこかに保存された情報を取り出した」という意味では同じ。


だったら、オットーさんにとってのノートは、

もはや「脳の一部」と呼んでもいいんじゃないか?


これが、クラーク氏がデイヴィッド・チャーマーズ氏(これもまた超有名な哲学者です)と一緒に1998年に発表した「拡張された心(Extended Mind)」という考え方です。


ものすごく乱暴にまとめると、こういうことです。

「考える」は、脳の中だけで完結しなくていい。ノートも、電卓も、スマホも、使い方次第では「あなたの心の一部」になりうる。

私はこの答えは、美しくて好きな考えです。


さて、この考え方が発表されたのは1998年。スマホもAIもない時代です。

それから27年。


2025年5月、そのクラーク氏本人が、Natureの姉妹誌であるNature Communicationsに新しい論説を発表しました。タイトルは「Extending Minds with Generative AI(生成AIで心を拡張する)」

27年前に「ノートは脳の一部かもしれない」と言った人が、今度は「ChatGPTは脳の一部になれるのか?」という問いに、自ら答えに来たわけです。



📰 Nature Communications(ネイチャー・コミュニケーションズ)(2025年5月19日)

Extending Minds with Generative AI

※ 「拡張された心」テーゼの提唱者であるアンディ・クラーク本人が、生成AI時代における人間の認知のあり方を論じた論説

📍 メディア傾向: ネイチャー・コミュニケーションズはNature系列のオープンアクセス学術誌。査読済み。学術的信頼性は極めて高い

URL:



「拡張された心」

難しそうに聞こえますが、 あなたも毎日やっていること です。


スマホを忘れて外出した時のことを思い出してください。

あの、 胸がざわつく不安感


連絡先も、予定も、地図も、全部スマホの中にある。

まるで 自分の脳の一部をもぎ取られた ような感覚。


……それは錯覚ではないのかもしれない、というのがクラーク氏の主張です。


あなたがスマホのメモ帳に書いた買い物リストは、「あなたの記憶」ですか、それとも「外部のデータ」ですか。

この境界線が曖昧になっている 、というのがクラーク氏の出発点です。


そして、その曖昧さはChatGPTでさらに加速している。

あなたが日記帳にメモを取る。


その日記帳は、あなたの脳の外にあるけれど、 あなたの記憶の延長 として機能している。

もし、日記帳に書いた内容と、脳の中の記憶が、機能的に同じ働きをしているなら。


日記帳は「あなたの心の一部」だと言える。

スマホも同じ。

電卓も同じ。

そして、生成AI、ChatGPTやGeminiも同じだ。


とクラーク氏は言うのです。

そしてクラーク本人は、今回の2025年の論説で、 生成AIにもこの理論が適用できる と主張しています。


「人間はもともと ハイブリッドな思考システム だ。メモ帳、辞書、算盤、電卓──ずっと外部ツールと脳を組み合わせて思考してきた。生成AIは、その最新版にすぎない


ここでクラーク氏は、とんでもなく昔の話を持ち出してきます。


どのくらい昔かというと、約2,400年前です。



「AIの話をしてたのに急にそんな昔?」と思いますよね。でも、これがびっくりするほどつながるんです。少しだけお付き合いください。


まず、登場人物を整理します。

3人出てきますが、全員めちゃくちゃ有名な人です。


プラトン氏。

紀元前4世紀のギリシャの哲学者。

名前くらいは聞いたことがあるかもしれません。

学校の倫理や世界史の教科書に必ず出てくる人です。

西洋の哲学は、ほぼ全部この人から始まったと言われるくらいの超重要人物。


ソクラテス氏。

プラトン氏の先生です。「自分は何も知らないということを知っている」——いわゆる「無知の知」で有名。

街中で人をつかまえては「君は本当にそれをわかってるの?」と質問しまくっていた人で、当時のアテネでは相当うっとうしがられていたらしいです。


ただし、ソクラテス氏本人は一冊も本を書いていません

彼の言葉は全部、弟子のプラトン氏が「先生はこう言っていた」と書き残した対話形式の本で伝わっています。

『パイドロス』

これはプラトン氏が書いた本の一つで、紀元前370年頃のもの。

ソクラテス氏とパイドロスという若者が、木陰でおしゃべりしながら「言葉とは何か」「知恵とは何か」を議論する——そういう内容です。




で、この2,400年前の本の中に、こんなエピソードが出てきます。

エジプトにテウトという神様がいた。テウト神はあるとき、画期的な発明をします。

「文字」です。

テウト神は誇らしげに、エジプトの王様であるタモス王のところへ持っていった。

「王様、これはすごい発明ですよ。これさえあれば、人間は何でも記録できます。もう何も忘れなくて済む。

ところがタモス王は、喜ぶどころか首を横に振った


こう言ったのです。

「それは"記憶の薬"ではない。"忘却の薬"だ。」

「人間は文字に頼るようになって、

自分の頭で覚えることをやめるだろう。」



ここがポイントです。

ソクラテス氏は、この神話を「昔こういう話があってね」と他人事のように語っただけではありません。

タモス王の言葉にはっきり同意した上で、

さらに自分自身の批判を重ねているのです。


ソクラテス氏はこう続けています。

「文字というのは絵画のようなものだ。絵の中の人物は生きているように見えるが、質問しても何も答えてくれない。

文字も同じだ。書かれた言葉は、誰に読まれても同じことしか言わない。

読み手に合わせて

説明を変えてくれることもなければ、

誤解されても訂正してくれることもない。」


つまりソクラテス氏は、単にタモス王の話を紹介しただけでなく、自分自身も「文字には根本的な欠陥がある」と主張していたのです。

(ちなみに皮肉なことに、ソクラテス氏のこの「文字批判」は、弟子のプラトン氏が文字で書き残したからこそ、2,400年後の私たちに伝わっているわけです。歴史って時々こういう冗談みたいなことが起きます。)




……そしてこれ、何かに似ていませんか?


「文字」を「AI」に置き換えてみてください。


「AIさえあれば、人間は何でも調べられます。もう自分で考えなくて済む」

「それは"知恵の道具"ではない。"思考停止の道具"だ」


ソクラテス氏の「文字は質問しても答えてくれない」という批判——これ、AIの時代にはむしろ逆転しています

ChatGPTやGeminiは質問すれば答えてくれる。

しかも読み手に合わせて説明を変えてくれる。


ソクラテス氏が2,400年前に「文字のダメなところ」として挙げたことの一部を、AIはすでに克服している

でも、タモス王の「人間は自分の頭で覚えることをやめる」という警告——

これはAIの時代に、むしろ前よりも鋭く刺さる。


2,400年前に「文字」に対して言われていた警告が、今、そっくりそのままAIに対して繰り返されている。

クラーク氏がわざわざこの話を持ち出してきたのは、まさにこのことを言いたかったからです。


そしてここからが、クラーク氏の本当に言いたかったことです。

ソクラテス氏の警告は、正しかったのでしょうか?


たしかに、文字が発明されてから、人間の「暗記力」は落ちたかもしれない。


文字がなかった時代の人々は、何万行もの詩を丸暗記していたと言われています。現代人にはとてもできません。


でも、文字のおかげで人間は「覚える」以外のことに脳を使えるようになった。

記録を文字に任せたことで、分析すること、比較すること、新しいアイデアを生み出すこと——そういう「もっと高度な思考」に集中できるようになった。


科学も、法律も、文学も、全部「文字」があったからこそ発展したものです。

おそらくソクラテス氏の警告は、半分当たっていて、半分外れていた


人間は文字に「記憶」を奪われたのではなく、「記憶」を文字に預けて、代わりにもっと大きな力を手に入れた。



……2400年前に「文字を使うとバカになる」と言われていたわけです。

「AIを使うとバカになる」と、2025年のSNSで言われていたのと、 まったく同じ構造 かもしれませんね。

その後、印刷機、電卓、カーナビ、Google、そしてChatGPT。

道具が変わるたびに、 同じ恐怖が蘇る

クラーク氏はそれを「反復するパニック」と一蹴し、こう断言しています。

「重要なのはメタ認知スキルだ」

(※メタ認知スキルとは、 自分の思考を一歩引いて観察する力 のことです。

料理中に「あ、調味料入れたっけ?味見してないな」と流れ作業ではなく、気づく、あの感覚。

AIを使っている時に「今、自分は本当に考えているのか、それとも 流されているだけか 」と立ち止まれるかどうか。その力のことです)

「何をいつどの程度信頼するかを見極める力── それが最も重要だ

ところが。

⚠️ 「代理的知者」── AIはあなたの脳を乗っ取る

クラーク氏の楽観論に、 真正面からぶつかる研究 が、2025年8月に出ています。


📰 Frontiers in Education(フロンティアーズ・イン・エデュケーション)(2025年8月)

When the Machine Knows Best: Generative AI, Epistemic Authority, and the Reshaping of Learner Autonomy

※ 教育現場でAIが「代理的知者」として機能し始め、学生の認識論的自律性が脅かされているという研究論文

📍 メディア傾向: フロンティアーズ・イン・エデュケーションは教育分野のオープンアクセス学術誌。査読済み。教育研究の信頼性は高い

URL:




ここで、クラーク氏とはまったく違う場所から声を上げた研究者たちを紹介します。


ビニー・ホセ(Binny Jose)氏。

マレーシアのリンカーン・ユニバーシティ・カレッジに所属する教育学の研究者です。


クラーク氏が「脳とは何か」「心はどこまで広がるか」という哲学の世界で考えていた人だとすれば、ホセ氏たちはもっと地べたに近いところ

——つまり実際の教室、実際の学生、実際の授業で何が起きているかを見ている人たちです。


ホセ氏は、インドやマレーシアの大学で教鞭をとる6人の研究者チームの筆頭として、2025年8月に学術誌Frontiers in Educationに論文を発表しました。


タイトルは「Epistemic Authority and Generative AI in Learning Spaces」——日本語にすると、「教室の中で"誰の言うことが正しいか"の力関係が、AIによってどう変わっているか」という意味です。


「認識的権威(Epistemic Authority)というのは聞き慣れない言葉ですよね。ざっくり言えば、「知識について、誰の言葉を信じるか」という力関係のことです。


たとえば教室では、これまで先生が「Epistemic Authority」——つまり知識の権威でした。「先生がそう言うなら正しいんだろう」と、生徒は思っていた。

でも今、その構図が崩れ始めている。


ホセ氏たちが教育現場から報告しているのは、クラーク氏の語る「脳の拡張」とは正反対の風景です。


クラーク氏は、AIは脳を「広げる」道具になりうると言いました。


でもホセ氏たちが見ているのは、AIが教室で「先生の代わり」になりつつある現実です。


具体的にはこういうことです。

学生が課題のレポートを書く。わからないことがあったとき、以前なら先生に質問していた

今は?

ChatGPTやGeminiといった生成AIに聞く。


しかもそれだけではありません。ホセ氏たちの論文によると、学生の中には先生のフィードバックをもらった後に、わざわざChatGPTにも同じ質問をして「答え合わせ」をする人まで出てきている。


つまり、先生の言葉よりもAIの言葉のほうを「正解」として扱っているのです。



なぜそうなるのか。ホセ氏たちはこう分析しています。

AIの回答は、速い。読みやすい。自信満々に書いてある。しかも、何度聞いても嫌な顔をしない。

一方、先生の回答は? 

「場合による」「もう少し考えてみて」「ここはどう思う?」と、すぐに正解をくれない。

生徒にとって、どちらが「頼りになる存在」に見えるか。

残酷ですが、答えは明らかです。



ホセ氏たちはこの現象を「代理的知者(surrogate knower)」と呼んでいます。

つまり、「本当は知らないのに、知っている人の代わりをしているもの」という意味です。


生成AIは何かを「理解」しているわけではない。でも、教室の中では、あたかも「一番物知りな存在」として振る舞っている。


そして学生たちは、その「代理の物知り」の言葉を、自分で検証することなく受け入れてしまっている。


ホセ氏たちが論文で使っている言葉を借りれば、これは「自動化バイアス(automation bias)」——「機械が言ってるんだから正しいだろう」という、無意識の思い込みということです。


辞書や百科事典が「調べれば分かる」だったのに対し、AIは 「聞けば答えてくれる」 この違いが、学生の脳の使い方を根本的に変えている、というのが彼らの主張です。


平たく言えばこういうことです。

教室で先生が「この問題、どう思う?」と聞く。

学生は手を挙げる代わりに、 机の下でChatGPTに聞く

そしてAIが返してきた流暢な答えを、 自分の頭で考えた答えよりも信頼する


「自動化バイアス」 と呼ばれる現象です。

(※自動化バイアスとは、「 機械やシステムが出した答えは正しいだろう 」と無意識に信じてしまう心理傾向のこと。カーナビが「右です」と言えば、自分の記憶と違っても右に曲がってしまう。あの感覚です)


AIの回答が流暢で自信に満ちているほど、人間はそれを 無批判に受け入れてしまう

……あなたの職場で、同じことが起きていませんか。

「ChatGPTがこう言っているから、たぶんこれで合っているだろう」

自分の直感が「いや、ちょっと待て」と囁いているのに、AIの流暢さに押し切られて、 考えるのをやめてしまう


あなたの仕事に直すとこうなります。

例えば、上司が「この企画書、ChatGPTに壁打ちしてみた?」と聞く。

あなたはAIに「この企画の問題点を指摘して」と投げる。

AIが「ターゲット設定が曖昧です」と返す。

あなたは「なるほど」と思って修正する。


でも、ちょっと待ってください。

その「なるほど」は、本当にあなたの判断ですか?

ということです。

それとも、AIが流暢に言ったから「そうかもしれない」と思っただけですか。

この瞬間、AIは「あなたの脳の一部」ではなくなっている。

あなたの脳に取って代わった「他者」 になっている。


🚗 運転席/助手席で統合する

クラーク氏とホセらの主張は、一見矛盾しています。

「AIは脳の一部だ」と「AIは脳を乗っ取る」が 同時に正しいわけがない

しかし、前々回の記事で使った「運転席と助手席」の比喩を持ってくると、 この矛盾がきれいに解消される のです。

クラーク氏が想定しているのは、 運転席に座ってAIをカーナビとして使う人間

ホセらが警告しているのは、 助手席に座ってAIにハンドルを渡した人間

この辺は前回も散々言っていましたね。

同じ道具を使っていても、 座っている席が違えば、結論は真逆になる

noteの深津貴之氏の優先順位を思い出してください。

1位:「人間による 生の一次情報 ・体験の記録・作品」

2位:「自身の一次情報を、AIを 『ツールとして』 活用して編集・構成したもの」

3位:「ユニークなAI自動生成記事」

4位:「新規性のない大量生成記事」


noteのアルゴリズムも、「運転席に座っているか」で判断しているのかもしれません。

AIを使ったかどうかではなく、あなたの 一次的な体験・判断が核にあるかどうか


これが「一次情報」の新しい定義の輪郭です。

しかし。

まだ足りない。

もう一つ、 極めて重要なピース があります。

次の章で、そのピースを置きます。


✅ 第3章の小まとめ

🧩 拡張された心(Clark, 2025) ── 生成AIは脳を弱めるのではなく、メモ帳や電卓と同様に「脳の外部延長」として機能する。プラトンの時代から同じ恐怖が反復しているだけだ、という楽観論。

⚠️ 代理的知者(Jose et al., 2025) ── 教育現場でAIが「代理的知者」として機能し始め、学生が自分の判断よりAIの回答を権威として受け入れる「自動化バイアス」が蔓延しているという警告。

🚗 運転席/助手席で統合 ── クラークの楽観は「運転席の人間」を想定し、ホセらの警告は「助手席の人間」を観察している。同じ道具でも、座っている席で結果は真逆。noteのアルゴリズムも「運転席に座っているか」で記事の価値を判断している。


💡 第4章:「信頼の目盛り合わせ」── 一次情報の代わりに必要な能力

急須を取りに台所へ立ちました。

今度はほうじ茶です。

茶葉を急須に落とした時の、 乾いたカサカサという音

熱湯を注ぐと、茶色い液体がじわりと広がり、焙煎の 香ばしい匂い が立ち上った。

コーヒーの鋭さとは違う、どこか安心する 丸い香り です。