要旨: 資料の乏しい縦断的エビデンスによって、時間とともに変化する心理的枠組みに沿って、LLMの説得力や人間らしさがどのように現れるかが検討されている。私たちは、Talk2AIという縦断的枠組みを導入し、社会を二極化させる論点に関するLLMの説得力について、心理社会的・推論的・情動的な側面を定量化する。我々の4者による縦断的設定では、Talk2AIの770人の参加者が、気候変動、ソーシャルメディア上の誤情報、数学への不安といったトピックについて、4つの主要なLLMのうちのいずれかと構造化された対話を行った。これにより、60,000ターンにわたる3,080件の会話が生成された。各波の後、参加者は、初期のトピックに対する立場における確信、知覚された意見変化、LLMの知覚される人間らしさ、トピックへの自己寄与(ドネーション)およびテキストによる説明を報告した。フィードバックの時系列は確信に縦断的な慣性があることを示し、AIが生成した議論を繰り返し提示された後でも、いくらかの人間が初期の意見にアンカーしていることが示唆された。興味深いことに、NLP分析では、会話のちょっとした一言(quip)1回につき6回に1回の割合で、人間とLLMの両方が誤謬(fallacious)に基づく推論に依拠していることが明らかになり、LLMの認知的な服従(cognitive surrender)の背後にある「LLMsはより優れたシステムである」というステレオタイプに反している。LLMの知覚される人間らしさは、社会人口統計・心理・エンゲージメントの特徴から最も学習可能であった(R^2=0.44)。次いで意見変化(R^2=0.34)、確信(R^2=0.26)、個人的な寄与(personal endowment)(R^2=0.24)であった。重要なのは、説明可能なAI(XAI)が次を示したことである:(i)LLMに基づく意見変化に対してより影響を受けやすい個人の存在;(ii)LLMによって説得されることへの心理的な感受性は、LLMへの信頼がより高いこと、より同意的であること、より外向的であること、そして認知への欲求(need for cognition)がより高いことによって構成される。混合効果モデルを用いるマルチバース・アプローチにより、XAIの結果が確認され、加えて強い個人差も観測された。Talk2AIは、AIと人間のデジタル・プラットフォームにおいて、GenAIが複数の心理社会的経路を通じて人間の意見にどのように影響し得るかを検出するための、根拠のある枠組みとエビデンスを提供する。
LLMは社会問題で心理的に影響されやすい人にしか説得が効かない――AIへの信頼と感情的訴求、論理の誤りの存在を含む
arXiv cs.AI / 2026/4/21
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- Talk2AIという縦断的フレームワークを提案し、分極化した社会問題をめぐってLLMが人を説得する度合いを、心理社会的・推論・情動の複数側面から定量化しました。
- 770人の参加者を対象に4条件の縦断実験を行い、4つの主要LLMとの構造化会話から3,080件(60,000ターン超)の会話データを収集し、説得後も「確信」に慣性が見られることから、人は繰り返しAIの議論を受けても初期の見方にとどまり得ることを示しました。
- 自然言語処理分析では、誤謬的な推論が人間とLLMでほぼ同程度の頻度(会話の“クイップ”6回に1回程度)で見られ、「LLMは常に優れた認知システム」というステレオタイプに反する結果となりました。
- XAIを用いて、LLMによる意見変化に影響されやすい人の特徴を特定し、LLMへの信頼が高いこと、協調性が高いこと、外向性が高いこと、そして認知欲求が高いことが要因として挙がりました。
- これらの結果は、生成AIがAIと人が共存するデジタル環境で人の意見に影響する複数の経路を、検出・モデル化するための根拠となる知見を提供します。




