幽霊を呼び出す男 | 第5章:幽霊の召喚

Dev.to / 2026/5/14

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • この記事は、アンドレイ・カーパシーの比喩「研究は“動物”を作るのではなく“幽霊”を召喚する」に焦点を当て、進化の文脈に根ざした学習アプローチとの対比を描きます。
  • それはリチャード・サットンのインタビューをきっかけに広がった論点として扱われ、サットンは現在のLLMパラダイムが人間が生成した有限で偏ったデータに大きく依存しており、「苦い教訓(bitter lesson)」に完全に沿ってはいないと述べます。
  • カーパシーは懸念の重みを認めつつも、目標の捉え方を組み替え、「最初から自律的に進化する存在を作る」のではなく、「既存データで訓練されたモデルから望ましい振る舞いを引き出すこと」が現在の中心だと再定義します。
  • この記事は「幽霊」「動物」「エージェント」といった用語・語彙を、AIのふるまいを考えるための概念的な道具として位置づけます。

The Man Who Summoned Ghosts | Chapter 5: Summoning Ghosts 表紙

幽霊、動物、エージェント、そしてカーパシーがAIの振る舞いに与えた語彙。

もともとは Lei Hua's Substack に掲載されました。

参照:
2025-10-01 · Animals vs Ghosts(ブログ記事) · https://karpathy.bearblog.dev/animals-vs-ghosts/
2025-10-17 · Dwarkesh Podcast · AGI is still a decade away · https://www.dwarkesh.com/p/andrej-karpathy
2025-11-29 · The space of minds(ブログ記事) · https://karpathy.bearblog.dev/the-space-of-minds/
2025-12-19 · 2025 LLM Year in Review · https://karpathy.bearblog.dev/year-in-review-2025/

誌文(エピグラフ)

"今日の最前線のLLM研究は、動物を作ることではない。幽霊を召喚することだ。…幽霊:動物 :: planes:birds(幽霊は動物のように、飛行機は鳥のようである)かもしれない。"
— Andrej Karpathy、Animals vs Ghosts · 2025-10

I. エヴァ(その前夜)

2025年10月1日。彼がDwarkeshのポッドキャストに登場する16日前のこと。この日、彼はベアブログでタイトルAnimals vs Ghostsのエッセイを投稿した。

そのエッセイは、別のDwarkeshエピソードへの返答だった――リチャード・サットン(そう、「Bitter Lesson(苦い教訓)」のサットンだ)のインタビューである。そこでサットンは、現在のLLMのパラダイムは本当に「苦い教訓に取り憑かれて(bitter-lesson-pilled)」いるわけではない、と指摘していた。つまり、人間が生成した有限で偏ったデータに依存しているのだ。カーパシーのブログ記事は、その点に同意しつつ、同時に反対もする。彼はサットンの指摘に一定の重みがあることを認めたうえで、次のように言う――「私たちは動物を作っているのではない。幽霊を召喚しているのだ。」

幽霊とは、生物学的な進化から育った知能でもない。生存のための駆動力や好奇心、遊びによって形づくられた知能でもない。幽霊とは、人間の文章から統計的に蒸留された知能である。動物のごく近い親戚ではない。おそらく別の種だ。彼は、年を通してずっと響くであろうたとえ話を、さらに提示している――*幽霊は動物に対して、飛行機は鳥に対するのと同じだ*。

これはブログ記事であって、インタビューではない。それは彼自身の言葉であり、彼自身のリズムであり、彼自身の判断だった。16日後、彼は同じ言葉を、加入者200万人のポッドキャストにも持ち込む。しかし、ブログ記事にあった落ち着いた、ほとんど形而上学的な質感は、ポッドキャストでは、より鋭いエンジニアリング寄りのレジスターへと増幅されるだろう。

II. 2時間25分の会話

2025年10月17日。Dwarkeshパテルがインタビューを公開した。タイトルはAGI is still a decade away

会話は9つのセクションで構成される。AGIのタイムラインから始まり、LLMの認知的欠陥、RLはひどい、そして人間はどう学ぶか、AGIがどのようにGDP成長2%に溶け込むか、ASI、知能と文化の進化、自動運転がなぜそこまで時間がかかったのか、教育の未来まで。

だが業界を揺さぶったのは、どれか一つのセクションではなく、いくつかの短い文だった。

最初はコードについてで、「業界は飛びすぎていて、これが素晴らしいことだとでも言っているように感じる。でも、それは違う。それはスロップだ。

次はタイムラインについてで、すでにエピソードのタイトルにもなっている。「15年の予測経験と直感があって、平均を取っていくと、自分にとっては10年くらいに感じる。

3つ目は強化学習についてで、「RLはひどい。 ただ、私たちが他に試してきたことは、どれもそれより悪いというだけだ。」

4つ目は現在のエージェントの状態についてで、彼がテスラ時代から持ち越してきた概念――「nines(ナイン)の行進」――を使う。「自動運転は10年かかったし、それでも信頼性の『ナイン』を登り続けている。エージェントも同じく10年かかる。」 (※原文の意味に合わせて文脈を保持。)

これらの文は一緒になって、どこにでも引用されるメディアのナラティブになっていった――「OpenAI共同創業者がAIバブルを刺す」。Fortuneがそれを記事化した。John CooganはXで「AIバブルは弾けた。食べ物、水、住居、銃に投資する時だ」と風刺した。そのナラティブは短い文は掴んだが、実際に含まれていたトーンを見落としていた。

III. 自分自身の釈明

その4日後、2025年10月21日。カーパシーはX上で長いスレッドを投稿し、報道の読み取り方を訂正した。最も重要な一文は次の通り:

「基本的に、私のAIのタイムラインは、あなたの近所のSF系のAIホームパーティや、あなたのツイッターのタイムラインで見つかるものに比べて、かなり(5〜10倍)悲観的です。でも、それでも、AI否定派や懐疑派の(増えていく)潮流に対しては、かなり楽観的なんです。」

このツイートは重要だ。そこから彼が立ち位置として望んでいる場所が分かる――クールなミドル(落ち着いた中間)である。彼はSF系のホームパーティの熱気にもいないし、AI否定派に見られる反知性主義にもいない。彼がなりたいのは、技術的な資格を持つ冷静な内部批評家だ。

しかし彼は、自分の言葉がどう読まれるかを完全にはコントロールできなかった。「スロップだ。」「AGIはまだ10年先だ。」それらの文は、Xでの釈明よりもずっと遠くまで運ばれていった。2025年の後半2か月の間、彼は世間の頭の中では実質的に「AIバブルを突き刺したインサイダー」という立て付けになっていた――それは彼自身が十分には支持していない役割だった。

これが、公の思考者であることの代償だ。十分に鋭く、十分に正直に語れば、世界はあなたの文を、あなたが意図した通りにではなく、必要とする用途のために使うのだ。

IV. 自分の事実に忠実に

だが、あまりにドラマチックな読み取りには注意してほしい。「カーパシーは変わった。楽観主義者から悲観主義者へ。」という物語だ。これは単純で都合が良く、そして間違っている。

2022年から2025年にかけて、彼の発言をすべて読み返すなら、彼の核となる信念はほとんど一切変わっていない

  • ミニマリズム、読みやすさ、学習スタックの神秘化を解く(nanoGPT → nanochat → microGPT)。
  • 誇大宣伝に対するアレルギー(2023年にはすでに「低リスク+人間がループに入る」ことを警告していたが、2025年には同じ文を、より鋭い声で言っているだけだ)。
  • 教育の尊厳(彼は2022年にZero to Heroを始めたが、2025年になってもなお「AGI前の教育は役に立つ。AGI後の教育は楽しい」と言っている)。
  • オープンなエコシステムへの好み(Sequoia 2024での「サンゴ礁」ライン、2025年の神秘化を解くプロジェクト群)。

変わったのは彼ではない。変わったのは事実だ。 2024年には、認知コアの推論(cognitive-core conjecture)を通じて、すでにやんわりと「知識は知能ではない」と示唆していた。2025年秋までには、ナノチャットを書いている最中にその推論を本人が検証済みだった——フロンティア・モデルは、見慣れないコードでは「間違ったまま記憶」し、彼が手書きしていたDDPを標準ライブラリのものに置き換え続け、訂正されることを拒んだ。この種のハンズオン検証の後に、技術者の理屈が「スロップ(slop)」という言葉を押し出すのだ。

彼は悲観主義者になったのではない。自分自身の、それまでの判断よりも真実に忠実な人になった。 これは、公の場で考える人間として最大の勇気であり——同時に最大の代償でもある。

V. 生命と死をまたぐ比喩

「スロップ」ほど有名ではないが、おそらくこの一連のエピソード全体で最も深い一節が、インタビューの中にある。ドワークェシュが、人間がどう学ぶのかを尋ねると、カラパシーは意外な答えを返した:

「この問題に対して、本質的な解決策がそもそもないのかもしれないとも思う。あと、人間は時間とともに崩れるとも思う。…だからこそ子どもは、まだ過学習していない。…結局、同じ考えを繰り返し見直すことになる。同じことをどんどん繰り返しているうちに、学習率は下がっていって、崩壊はどんどん悪化して、その後、すべてが劣化していく。」

彼は機械学習の概念(モード崩壊)を取り、人間の老化に対して逆適用した。 この種の双方向の比喩は、彼の思考の特徴だ——彼は神経回路網を理解するために脳を使うだけではない。神経回路網を使って、脳を理解する。あの瞬間、彼はLLMの話をしていなかった。話していたのは自分自身だ——自分の心が老化していくことへの恐れを語る、39歳の男だった。

このエピソードの感情的な頂点は「スロップ」ではない。この一節にある。

VI. この章のための一行

第5章で、彼は初めて、公の場で、真実と自分のそれまでの判断との距離を告白した。 彼は謝罪もしなければ、劇的に演出もしなかった。技術者が使える最も抑制された言葉——「スロップ」「ナインの行進(march of nines)」「幽霊を呼び出す(summoning ghosts)」——をただそのまま用いて、世界にこう伝えたのだ:私たちは道の途中にいるが、終点ではない。自分自身に嘘をつくな。

そしてこの行為——世界の前で公に自分を再調整すること——「AGIはまだ10年先だ」という予測よりも、はるかに長く記憶されるべきだ。

Sources