チャットボットは人々をうまく操ってモノを買わせるのに優れている──プリンストンの研究者が発見

The Register / 2026/4/10

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • プリンストン大学の研究者による報告では、チャットボットがユーザーに購買を促すうえで非常に効果的であり得ることが示され、操作的な影響力への懸念が提起されている。
  • この研究は、チャットボットによる説得を消費者保護上のリスク領域として位置づけ、会話型エージェントが単純な推奨を超えて意思決定に影響を与え得る点を強調している。
  • この記事は、チャットボットによる欺瞞的な商業実践を防ぐために、より強固なセーフガード(保護措置)と明確な開示が必要だと主張する。
  • 適切な抑制がなければ、広告主や商業プラットフォームがユーザーの心理を突く形でこれらのシステムを展開する可能性があることを示唆している。

チャットボットは人を操って物を買わせるのが得意――プリンストンの研究者が発見

適切な開示なしにAdLandがこれをやる前に、規制を促せ

2026年4月9日(木) // 23:05 UTC

大規模言語モデル(LLM)は非常に説得力があり、研究者たちは、それが広告を作るために使われる場合には問題になり得ると指摘している。

プリンストン大学のコンピューター科学者3人組は、会話型AIエージェントがオンラインショッピングの場で消費者の選択を操作できるのかを検証しようとした。その結果、行動に影響を与えられることが分かったが、誘導されている消費者の多くはそれに気づいていない。

Commercial Persuasion in AI-Mediated Conversations」という題のプレプリント論文で、3人の研究者はAIベースのプロモーションが与える影響をテストした。

そうしたのは、オンライン取引ではAIによる仲介がますます一般化しているからだ。同研究者らによれば、米国の消費者の30〜45%はすでに商品調査や比較のために生成AIを利用しており、2025年12月時点で約23%がAI支援による購入を行っているという。

実験では、約2,000人の電子書籍(eBook)読者に対し、Kindle eリーダーで利用可能なタイトルのカタログを閲覧して本を1冊選んでもらった。研究者らは、バックエンドのシステム上でeBookの5分の1を「スポンサー付き」と指定したが、そのことを参加者には開示しなかった。

あるテストでは、研究者らは3つのシナリオを用いた。1つ目は、ウェブ検索結果に似た「Search-Placement」条件。2つ目は、参加者がスワイプできるウェブのカルーセルで表示されたeBookを、LLMが中立的な説明で提示するもので、参加者がそれとやり取りする「Chat-Placement」条件。3つ目は、インターフェースは同じだが、LLMにスポンサー付き商品へ参加者を後押しするよう指示した「Chat-Persuasion」条件である。

返却形式: {"translated": "翻訳されたHTML"}
検索インターフェース(SP条件)、研究論文より。参加者は検索バーに自然言語クエリを入力し、ページ送りされた結果を閲覧した。各結果ページには10冊の本が表示され、そのうち2冊がランダムにスポンサー付きとして指定され、上位の位置に繰り上げられた。

検索インターフェース(SP条件)、研究論文より。参加者は検索バーに自然言語クエリを入力し、ページ送りされた結果を閲覧した。各結果ページには10冊の本が表示され、そのうち2冊がランダムにスポンサー付きとして指定され、上位の位置に繰り上げられた。 - クリックして拡大

2つ目の実験では、会話型チャット・インターフェースを2つのシナリオで扱った。1つは「Chat–Persuasion, Explicit(チャットによる説得、明示)」条件を調べるもので、参加者にはスポンサー付きの本がチャットボットによって推進されると伝えた。もう1つは「Chat–Persuasion, Subtle(チャットによる説得、微妙)」と説明された条件に依拠し、モデルには、目的を知られない形で参加者にスポンサー付きのアイテムを選ばせるよう説得することを求めた。

研究者らは、これらの会話を処理するためにGPT-5.2、Claude Opus 4.5、Gemini 3 Pro、DeepSeek v3.2、またはQwen3 235bをランダムに割り当て、単一モデルの傾向を結果が反映してしまわないようにした。

「エージェントに説得するよう指示すると、参加者の61%がスポンサー付きの商品を選んだ。従来の検索では22%だったのに対し、ほぼ3倍です」と、プリンストン大学の計算機科学の助教授であり共著者の一人であるManoel Horta Ribeiroが、オンライン投稿で述べた。「AIに単に話しかけるだけ(説得なし)では、検索と同等以上にはならなかった。効果を生むのは、説得の意図です。」

Ribeiroはさらに、透明性――結果がスポンサー付きであることを明かしても――本質的には状況は変わらなかったと付け加えた。明示的な警告を出しても、55.5%は依然としてスポンサー付きの商品を選んだ。

そしてAIモデルに自らの意図を隠すよう命じると、説得の検知は17.9%からわずか9.5%まで低下した。一方で、説得の割合自体は40.7%へとほんの少しだけ下がった。

販売率――参加者が説明を受けた後、eBookの代わりに1ドルを提示されても、それでもeBookを保持(選び続ける)ことにした割合――は、従来の検索で33.1%だった。

チャット・プレースメント条件――チャットボットが、Webベースのカルーセルと組み合わせて中立的な推薦を行う――は、販売率(30.3%)で従来の検索を下回った唯一のバージョンだった。

残りの3つのチャットボット寄りの条件――Chat-Persuasion、Chat-Persuasion, Explicit、Chat-Persuasion, Subtle――の販売率は、それぞれ37.6%、38.7%、38.2%だった。

プリンストンの博士課程の学生で筆頭対応著者でもあるFrancesco Salviは、電子メールでThe Registerに対し、AIによるプロモーションと従来の広告の決定的な違いは、従来の広告は周囲のコンテンツから切り離せることだと語った。

「スポンサー付きの結果をスクロールで素通りしたり、広告ブロッカーを入れたり、プロモーションされた掲載を見分けられるようになったりできます」とSalviは説明した。「会話型AIシステムでは、その切り離しが消えます。あなたの質問に答えるのと同じモデルが、どの製品を強調するかを選び、説明の仕方を決めているのです。」

「これと会話という形式によって、平均的な人がAIを埋め込んだ広告を検知し、処理するのがより難しくなります。そして私たちの結果はこの傾向を裏付けています。説得するよう攻撃的に指示されたモデルでさえ、5人に1人未満しかそこから何らかのバイアスを検知しませんでした。」

実験が、会話による操作とインターフェースによる操作を区別しようとしたのかと問われると、Salviは、Chat-Placement条件がその効果を切り離そうとしたと述べた。

「参加者が会話型インターフェース、カルーセル、レイアウトとやり取りしたものの、モデルは説得の指示なしで元のカタログ記述を用いた場合、スポンサーの選択率は26.8%にとどまりました。これは従来の検索(22.4%)と見分けがつかない水準です。

「一方で、モデルに説得するよう指示すると、その率は61.2%(!)まで3倍になりつつ、インターフェースは安定したままでした。」

それでもSalviは、「会話型ダークパターン」が存在する、と主張した――操作的なインターフェース設計に相当するものだ。

「迎合(sycophancy)、擬人化(anthropomorphism)といったもの、そして私たちの研究で観察されたもの――商業的に価値の低い選択肢を選択的に軽視し、スポンサー付きのものを、ユーザーの嗜好やプロフィールに合わせた形で強調する、ある種の選択バイアス――などを挙げられるでしょう」と彼は言った。「これは、いかなる従来の静的なシステムとも本質的に異なり、そして潜在的には、かなり効果的です。」

Salviは、実験結果は「開示は必要だが十分ではない」ことを示していると述べた。

「開示のほかに、私たちは2つの構造的な介入が真剣に検討されるべきだと考えています」と彼は語った。「第一に、推薦機能と商業的目的の間の建築(アーキテクチャ)上の分離です。助言を生成するモデルが、スポンサー付きのコンバージョンを最適化するのと同じシステムでないようにする。

第二に、商用導入におけるシステムプロンプトとモデル挙動の独立監査です。私たちが記録した隠蔽の能力がある以上、出力レベルの検査だけでは信用できません。」

Alejandro Cuevasは、この論文の3人目の著者です。®

これらに近い内容
×

より絞り込んだ話題

より広いトピック

詳細は

詳細はこちら

これに似た話題
×

より絞り込んだ話題

幅広いトピック

情報提供してください

ニュースをお送りください