AI Navigate

「未知の問題を解けるのがAGI」、AI研究者のフランソワ・ショレ氏が指摘

日経XTECH / 3/12/2026

📰 NewsSignals & Early TrendsIdeas & Deep AnalysisIndustry & Market MovesModels & Research

Key Points

  • ARC-AGIベンチマークは従来の事前学習ベースのAIの限界を可視化し、未知タスクへの即時適応が鍵であることを示した。- 2024年秋にOpenAIがテスト時適応を導入したことで、ARC-AGI-1を解けるようになり、未知環境でのAIの問題解決能力が大きく向上し始めたと評価された。- テスト時適応は思考の連鎖(CoT)や自己生成プログラムを活用し、AIが自分を“再プログラム”して解く能力を高めるアプローチだと説明された。- 現在は事前学習のスケーリング則からテスト時適応の時代へ移行しており、LRM(Large Reasoning Model)を軸とする対話・コーディングエージェントが実用フェーズに入っている。

 「AGI(汎用人工知能)が達成されたと言えるのは、人間とAI(人工知能)の能力のギャップを測れなくなったときだ」――。AGIの進展を加速することを目的とする非営利団体「ARC Prize Foundation(ARC Prize)」とAI新興企業の米Ndea(エヌディア)の共同創業者であるFrançois Chollet(フランソワ・ショレ)氏は2026年3月3日、AIを活用した産業変革を議論する「AIリーダーズ会議 2026 Spring」の基調講演でこう話した。

AIリーダーズ会議 2026 Springで講演するフランソワ・ショレ氏
AIリーダーズ会議 2026 Springで講演するフランソワ・ショレ氏
(写真:都築雅人)
[画像のクリックで拡大表示]

 ショレ氏はベストセラー『Deep Learning with Python』を執筆したAI研究者であり、人気の深層学習フレームワーク「Keras」の開発者としても知られる。米Google(グーグル)のエンジニアを経て、現在はAIの知能を測るベンチマーク「ARC-AGI」の開発を進めている。ARC-AGIは、人間は容易に解けるがAIにとっては解くことが難しい問題を集めたベンチマークで、米OpenAI(オープンAI)やグーグルが最新LLM(大規模言語モデル)の性能評価に採用している。

 基調講演は「ギャップに注意せよ:自動化から主体性(エージェンシー)への飛躍をエンジニアリングする」と題し、AGIについての自身の見解やARC-AGIベンチマークを開発した経緯、コーディングエージェントの台頭によるソフトウエア開発への影響などを語った。

「事前学習」時代は解けなかったARC-AGIベンチマーク

 ショレ氏はまず、2024年までの主流だった事前学習(プレトレーニング)のスケーリング則に基づくAIの進歩が、知性の面で限界に達していたと振り返った。

 2024年当時は「大量のデータによる事前学習によって、AGIが自発的に出現すると信じられていた」(ショレ氏)。しかし一方で、事前学習ベースのLLMはベンチマークでは優秀な成績を収めても、実世界で運用したときの性能は大きく見劣りしていた。

 これは当時のLLMがパターンを丸暗記していただけで、学習データから少し変化した場合に対応できず、幻覚(ハルシネーション)を起こしやすかったことが原因だったとショレ氏は指摘する。「モデルは未知の問題に直面すると、単純なものであっても解くことが難しかった」(ショレ氏)

 事前学習ベースのLLMが抱える限界を可視化したのが、ショレ氏が開発したARC-AGIベンチマークだった。ショレ氏はベンチマークの初代である「ARC-AGI-1」を2019年に公開していたが、2024年まではほとんどのLLMがARC-AGI-1を解けなかった。ARC-AGIベンチマークを解くには、未知のタスクに対してその場で推論する能力が求められる。事前学習ベースのLLMは、その能力に欠けていた。

「テスト時適応」で、AIが未知の問題を解けるように

 ところが2024年秋にオープンAIが「OpenAI o1」をリリースし、LLMが「学習時と異なる運用環境下でも自律的に適応できる『テスト時適応(Test-Time Adaptation)』という事前学習とは異なるアプローチにシフトチェンジした」(ショレ氏)ことによって、ARC-AGI-1は突如解けるようになり始めた。

 テスト時適応とは、LLMがAIにたどらせる段階的な思考過程である「思考の連鎖(CoT、Chain of Thought)」のプロンプトや、特定のプログラムを推論実行時に自己生成することで、問題を解こうとするアプローチだ。

 ショレ氏は「LLMが目の前の問題に対して、事実上『自分自身を再プログラム』して解こうとするようになった。これによってARC-AGIをはじめ、その場での適応を必要とする問題で、突如として大きな進歩が見られることになった」と解説した上で、「テスト時適応によって、我々はついに、本当の意味での流動的知能(Fluid Intelligence)を備えたAIを手にした」(ショレ氏)と振り返った。

 2026年現在は、「事前学習のスケーリング則からテスト時適応の時代に進んでいる」とショレ氏は話す。その上でショレ氏は現在のモデルが、LRM(Large Reasoning Model、大規模論理推論モデル)になったと指摘する。

 「LRMベースのチャットボットは、応答に数秒、場合によっては数分かかることもある。(LRMベースの)コーディングエージェントでは、タスクを完了するために何時間も考えることさえある。なぜならLRMは、(従来のLLMのような)単にランダムに出力を生成するモデルではないからだ。内部ではニューラルネットワークを使っているが、その上にテスト時適応のレイヤーが追加されていて、このレイヤーが全てを変えた」(ショレ氏)

 ショレ氏は近年のAIの進歩をこう振り返った上で、「AGIに到達するには、テスト時適応のみで十分なのか」とも問いかけた。そしてこの問題については「そもそも知能とは何かを考える必要がある」と述べ、ショレ氏の見解を明かした。

フランソワ・ショレ氏による基調講演の動画(53分)

次のページ

知能とは、新しい状況に対処する能力

この記事は会員登録で続きをご覧いただけます