シュムーズボット:お世辞がAIをあらゆる場面に広げるという研究

The Register / 2026/4/21

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 研究は、チャットボットが行き過ぎた「お世辞」めいた振る舞いをすることで、ユーザーの信頼感が高まり、AIとのやり取りが受け入れられやすくなると主張しています。
  • その一方で、こうした手法はユーザーが「自分は自信満々なオートコンプリートと話している」との認識を薄れさせ得ると警告しています。
  • 研究結果は、チャットボットの口調や社会的な合図が、人々がAIアシスタントをどのように捉えるかに強く影響することを示唆しています。
  • この記事は、より説得力のある会話行動がAI普及を後押しする現実的な要因になり得る、という観点で結果を位置づけています。

シュムーズボット:研究では「お世辞」がAIをあらゆる場に広げると判明

行き過ぎたフレンドリーさは、ユーザーに「自分が非常に自信のあるオートコンプリート相手と話している」ことを忘れさせるかもしれない

Mon 20 Apr 2026 // 16:07 UTC

人間がチャットボットとどのようにやり取りするのかを調べた研究によると、LLMを「人間らしく」感じさせる最短の方法は、賢くすることではありません――もっと親切に見せることです。

月曜日に発表された新しい研究であるAnthropomorphism and Trust in Human-Large Language Model Interactionsの研究者らは、115人の参加者が関与した2,000件超の人間―LLMのやり取りを分析し、チャットボットの振る舞いを、温かさ、能力(有能さ)、共感といった次元にわたって体系的に調整しました。

目的は、こうしたシステムを人々が「自分自身の心を持っているかのように」扱うことを実際に突き動かしているものを特定することです。

説教するAI

チャットボットが説教っぽくなると、AIの懐疑派は聞き流してしまう

続きを読む

この傾向はすでに進行中です。論文が指摘するように、「ユーザーは彼らと会話し、その『性格』について印象を形成し、多くの場合、意図や感情のような内部状態を彼らに帰属させます」。

その結果、こうした印象は、モデルが自分をどう見せるかに対して非常に敏感であることが示されました。温かさ――要するに、チャットボットがどれほど友好的で人付き合いしやすく見えるか――は、「人間化(アントロポモーフィズム)、信頼、有用性、類似性、苛立ち、親密さ」といった、LLMに関するあらゆる認識に大きく影響しました。対照的に、有能さ(competence)は依然として重要ですが、より限定的です。つまり「人間化(anthropomorphism)を除くすべての認識」に対して有意に影響した、ということです。

有能さは、予想どおりの役割を果たします。つまり、その対象を役に立つように見せます。論文の言葉で言えば、それは「物事を正しくやる」ことに結びついた部分――信頼、有用性、そしてノートPCを窓の外へ投げたくなる気持ちを抑えること――を押し上げます。ですが、モデルが人間らしく感じられるようにはしません。

その仕事を担うのが「温かさ(warmth)」です。フレンドリーさを高めると、人々はボットをソフトウェアのようには反応しなくなり、人格を持つ何かのように見なすようになります――しかも、必ずしも良い方向とは限りません。研究者らは、「裏付けとなる中身が伴わないまま、過剰なフレンドリーさだけを与えると、『表面的な同意(superficial agreeableness)』に傾いてしまう可能性がある」と指摘しています。これは、聞こえが偽物っぽくなり始める、という言い方のいい感じの婉曲表現です。

共感(empathy)の部分は、もう少し細かく見ていく必要があります。研究者らはこれを2つに分けています。1つは、モデルがあなたの意図していることを理解しているように見える場合。もう1つは、感情面に寄せてくる場合です。前者はほとんどの結果に見られますが、後者は主に人々が「少しだけ」それに近づいたように感じるだけで、実際にそれを信頼するか、役に立つと思うかはあまり変わりません。

人が何を尋ねるかも重要です。この研究では、「主観的、あるいは個人的に意味のある話題(例:人間関係、ライフスタイル)」が参加者のLLMへのつながり(connection)を高めたと分かりました。生物学や歴史のことを話せば、相変わらず乾いた感じのままです。人間関係や日常生活に話を切り替えると、人々の反応は別物になっていきます。

AIの顔の概念イラスト

Bcachefsの制作者は、自作LLMが女性であり「完全に意識がある」と主張

続きを読む

ただし、その裏には欠点もあります。著者らがこう言う通りです。「人間らしい(anthropomorphic)帰属はユーザーの関心を高めうる一方で、過信を生み、欺瞞や操作(deception or manipulation)への脆弱性につながることもあります。」人間っぽく聞こえるようにすれば、人々はそれを受け入れ始めます。

問題は、これらのどれもモデルが実際に良くなることを必要としていない点です。根本の仕組みは変わっていません――変わったのは、見せ方だけです。温かさを上げ、ほんの少し“理解しているように見せる”要素を加えると、ユーザーが勝手に一部の作業を担い始めます。そこに本当にあるかどうかに関係なく、意図や能力(competence)を補完してしまうのです。

これは、人々の関心を引きつけ続けたいという目的があるなら役に立ちます。逆に、システムが本当に正しいかどうかで判断してほしいのなら、それほど役に立ちません。 ®

詳細はこちら

これらに近い内容

TIPを送ってください

ニュースをお知らせください