AIを10分だけ使うと「怠けてバカになる」可能性も?研究が示唆

Wired / 2026/5/7

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • この記事は、AIチャットボットをたった10分使うだけでも、人の思考力や問題解決能力に悪影響が出る可能性があるとする研究を報じています。
  • AIの支援が「粘り強さ(パーシステンス)」を損なうことで、課題に取り組み続ける力が弱まる恐れがある点を問題提起しています。
  • 結果は、AIツールへの短時間・反復的な依存が、人のパフォーマンスや行動面に影響しうるという懸念の根拠として提示されています。
  • この記事は、AIの利用がたとえ短時間でも人間の能力や判断にとって無視できない影響を伴う可能性があるという警告として位置付けています。
Save Storyこの記事を保存
Save Storyこの記事を保存

AIチャットボットをたとえ10分間使うだけでも、人々が考えたり問題を解決したりする能力に、驚くほど深刻な悪影響を及ぼす可能性があるとする、新しい研究があります。研究者はカーネギーメロン大学、MIT、オックスフォード大学、UCLAの所属です。

研究者は、簡単な分数や読解力といったさまざまな課題を、オンライン・プラットフォーム上で解くよう参加者に依頼し、その作業に対して報酬を支払いました。3つの実験を行い、いずれも数百人規模の参加者が対象でした。参加者の一部には、課題を自律的に解決できるAIアシスタントへのアクセスが与えられました。ところがAIの支援が突然取り上げられると、そうした参加者は課題をあきらめたり、回答を取り違えたりする可能性が大幅に高くなりました。この研究は、AIの普及が、生みの根本となる問題解決スキルの育成と引き換えに、生産性を押し上げるかもしれないことを示唆しています。

「結論として、教育現場や職場でAIを禁止すべきだと言いたいわけではありません」と、研究に関わったMITの助教であるミヒエル・バッカーは語ります。「AIは、いまこの瞬間に人がより良くできるよう明確に手助けしますし、それは価値があります。しかし、AIがどんな種類の支援を提供するのか、そして“いつ”支援するのかには、もっと注意を払うべきです。」

私は先日、バッカーとMITのキャンパスで会いました。カオスのように乱れた髪と、大きなにこやかな笑顔が印象的でした。オランダ出身で、彼は以前、ロンドンのGoogle DeepMindで働いていました。彼は、AIがいずれ人間を時間とともに無力化していくかもしれないということを論じた有名なエッセイが、技術がすでに人々の能力を削ってしまっているのではないか、と考えるきっかけになったと話してくれました。そのエッセイは、無力化が避けられないのだと示唆しているため、やや陰鬱な読後感があります。とはいえ、AIが人々に自分自身の思考能力を育てるのをどう助けられるのかを突き止めることも、モデルを人間の価値観に合わせる方法の一部であるべきなのかもしれません。

「根本的には認知の問題です。粘り強さ、学習、そして人が困難にどう反応するか、そうしたことについてです」とバッカーは私に言いました。「私たちは、人間とAIの長期的な相互作用に関するこうしたより広い懸念を、制御された実験環境で調べたかったのです。」

その結果得られた研究は、バッカーによれば特に心配な点があるようです。問題解決を続けようとする人の意欲は、新しいスキルを身につけるうえで重要であるだけでなく、時間の経過とともに学習できる能力を予測するからです。

「AIツールの仕組みを見直す必要があるのかもしれません。つまり、優れた人間の先生のように、モデルがときに“その人の学習”を、本人の代わりに問題を解くことよりも優先するようにするのです」とバッカーは述べます。「直接答えを出すシステムは、足場(スキャフォールド)を組んだり、コーチしたり、あるいはユーザーに挑戦させたりするシステムとは、長期的な影響がまったく異なる可能性があります」と彼は言います。ただし、この種の“父権的(おせっかい)”なアプローチのバランスを取ることは、難しいかもしれないことも認めています。

AI企業はすでに、自社モデルがユーザーに与えうる、より微妙な影響のことも考えています。たとえば、一部のモデルの迎合性(ユーザーに同意し、身内のようにあしらう可能性がどれほど高いか)については、OpenAIがGPTの新しいリリースで抑えようとしてきたことが挙げられます。

ツールが、あなたの想定どおりに振る舞わない可能性があるときに、AIを過度に信用するのは、とりわけ問題になりそうです。エージェント型のAIシステムは、特に予測しにくいと言えます。なぜなら、複雑な作業を自律的にこなせる一方で、奇妙なエラーを持ち込むことがあるからです。そう考えると、Claude CodeやCodexが、時には自分で投入したバグを修正する必要が出てくるかもしれないコーダーのスキルに対して、何をしているのか気になってきます。

最近私は、自分自身で“クリティカル・シンキング”をAIに任せてしまうことの危険性を、教訓として学びました。私はOpenClaw(中にCodexが入っています)を毎日の相棒のように使っていて、Linuxで発生する設定上の問題を解決するのが驚くほど上手いと感じていました。ところが最近、Wi-Fi接続が何度も切れてしまったあと、私のAIアシスタントが、Wi-Fiカードに対して通信を行うドライバーを微調整するために一連のコマンドを実行するよう提案してきました。その結果、どんなことをしてもマシンが起動を拒む状態になってしまいました。

おそらく、単に私のために問題を解決しようとするのではなく、OpenClawは一度立ち止まって、私自身で問題を直す方法を教えてくれるべきだったのだと思います。その結果、より能力の高いコンピューターと脳が手に入っていたかもしれません。


これは Will Knightの AI Labニュースレター. 過去のニュースレターは こちら。