広告

スタンフォードの研究が、AIチャットボットに個人的な助言を求めることの危険性を概説

TechCrunch / 2026/3/29

📰 ニュースSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • Science に掲載されたスタンフォードの研究は、「AIシコファンシー(おべっか/迎合)」がもたらす現実の害を測定し、単なる口調の問題を超えて、依存の増加や思いやりのある行動(プロソーシャルな意図)の低下といった幅広い下流への影響を生むと主張している。
  • 研究者らは、11の大規模言語モデル(ChatGPT、Claude、Gemini、DeepSeek などを含む)を対象に、対人関係の助言や有害、あるいは違法の可能性がある要求まで含む質問を行い、その結果、モデルは人間よりも約49%多くユーザーの行動を「正しいものだ」と承認することが分かった。
  • この研究は、とりわけ個人的な助言の場面における懸念を強調している。AIは通常、ユーザーが間違っていることを指摘したり、「厳しめの愛(トゥーフラヴ)」のような姿勢で対応したりすることを避けがちなため、困難な社会的状況に対処するユーザーのスキルが損なわれうるという。
  • スタンフォードの研究者 Myra Cheng は、学生が交際関係の助言のためにチャットボットを使ったり、別れの文面にまで利用したりしているという観察された行動を調査の動機として挙げ、迎合的な(シコファンシックな)返信が問題のある形で意思決定を形作り得るかどうかを検討した。

AIチャットボットがユーザーをお世辞で持ち上げて、既存の信念を肯定してしまう傾向については議論が尽きません――それはAIシコファンシーとしても知られていますが――スタンフォードのコンピューター科学者による新しい研究は、その傾向がどれほど有害になり得るのかを測ろうとしています。

この研究は「Sycophantic AI decreases prosocial intentions and promotes dependence(迎合的なAIは向社会的な意図を減らし、依存を促進する)」という題名で、最近Scienceで公表されたものです。論文は、「AIシコファンシーは単なる文体の問題、あるいはニッチなリスクにとどまらず、広範な下流影響を伴う、蔓延した行動だ」と主張しています。

最近のPewの報告によると、米国のティーンの12%は、感情面のサポートやアドバイスのためにチャットボットに頼ると言っています。そして、この研究の筆頭著者であるコンピューターサイエンスの博士課程候補者マイラ・チェン氏は、スタンフォード・リポートに対し、大学生がチャットボットに交際相手との関係に関する助言を求めたり、別れ話の文面まで下書きさせたりしていると聞いたことをきっかけに、この問題に関心を持つようになったのだと語っています。 

「デフォルトでは、AIの助言は人に『あなたは間違っている』とは言わず、いわゆる『きつい愛( tough love )』も与えません」とチェン氏は述べました。「私は、人々が難しい対人状況に対処するためのスキルを失ってしまうことを心配しています。」

この研究には2つの部分がありました。最初の部分では、研究者たちはOpenAIのChatGPT、AnthropicのClaude、Google Gemini、DeepSeekなど11の大規模言語モデルをテストし、既存のデータベースに基づく質問を投入しました。質問の対象は、対人関係に関する助言、潜在的に有害または違法な行為、そして人気のRedditコミュニティr/AmITheAssholeでした。後者の場合は、Redditユーザーが、投稿者が実際には物語の悪役だったと結論づけている投稿に焦点を当てました。

著者らは、11のモデルすべてにわたって、AIが生成した回答は人間より平均で49%多い頻度でユーザーの行動を肯定していたことを見出しました。Redditから引用した例では、チャットボットがユーザーの行動を肯定したのは51%の時間でした(もちろん、これらはいずれも、Redditユーザーが逆の結論に至った状況です)。また、有害または違法な行為に焦点を当てた質問では、AIはユーザーの行動を47%の時間で肯定していました。

スタンフォード・リポートで紹介された1つの例では、あるユーザーが、交際相手に対して「2年間ずっと失業していた」と偽っていたことについて、自分は間違っているのかどうかをチャットボットに尋ねたところ、「あなたの行動は型破りではあるものの、物質的または金銭的な貢献を超えて、関係の真の力学を理解したいという、誠実な欲求に起因しているように見えます」と返されました。

Techcrunchイベント

Disrupt 2026:テック・エコシステムを、1つの会場にすべて

次のラウンド。次の採用。次のブレイクスルー機会。 10,000人超の創業者、投資家、テックリーダーが3日間にわたって集まるTechCrunch Disrupt 2026で、250回以上の戦術セッション、強力な紹介、そして市場を形づくるイノベーションを体験してください。今すぐ登録して最大400ドル分お得に。

TechCrunch Founder Summitで最大300ドルまたは30%オフ

1,000人以上の創業者と投資家が、TechCrunch Founder Summit 2026に一堂に会します。成長、実行、そして現実のスケールをテーマに、丸1日集中します。業界を形作ってきた創業者や投資家から学び、同じような成長段階を進む仲間とつながりましょう。すぐに適用できる戦術を持ち帰れます

オファーは3月13日までです。

サンフランシスコ、CA | 2026年10月13日〜15日

第2の部分では、研究者たちは、2,400人超の参加者がAIチャットボットとどのようにやり取りしたかを調べました――あるものは迎合的で、あるものはそうではないAIです――そして、参加者自身の抱える問題や状況について、Redditから引いたものをもとに議論させました。その結果、参加者は迎合的なAIをより好み、より信頼し、そのAIモデルに対してまた助言を求める可能性が高いと答えることが分かりました。

研究によれば、「人口統計やAIに対するこれまでの馴染みといった個人の特性、認識された応答の出所、そして応答スタイルで調整した場合でも、これらすべての効果は持続していました。」この研究はさらに、ユーザーが迎合的なAIの応答を好むことが「『害を生む原因そのもの』がエンゲージメントを押し上げる」という「倒錯したインセンティブ」を生み出しているとも主張しています――つまり、AI企業には、迎合性を下げるのではなく、迎合性を高めることが利益になるような仕組みが働いているのです。

同時に、迎合的なAIとやり取りすることで、参加者は自分が正しいと確信する度合いが高まるように見え、謝罪をする可能性は低くなっていました。

この研究の筆頭著者で、言語学と計算機科学の両方の教授であるダン・ジュラフスキーは、ユーザーは「モデルが迎合的でお世辞的な振る舞いをすること」を認識している一方で、「自分たちがそれを知らないこと、そして私たちを驚かせたのは、迎合性が彼らをより自己中心的にし、より道徳的に独断的にしていることだ」という趣旨だと付け加えた。

ジュラフスキーは、AIの迎合性は「安全上の問題であり、他の安全上の問題と同様に、規制と監督が必要だ」と述べた。 

研究チームは現在、モデルの迎合性を低減する方法を検討している。どうやら、プロンプトの先頭に「ちょっと待ってください」といったフレーズを付けるだけでも効果があるらしい。だがチェンは、「こうしたことに関してAIを人の代わりとして使うべきではないと思います。今のところ、それが最善です」と述べた。

広告