人間化(アントロポモーフィズム)と、人間—大規模言語モデル間の相互作用における信頼

arXiv cs.AI / 2026/4/20

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本研究は、115人の参加者を対象に実施した実験を通じて、2,000件超の人間—LLM相互作用データを用いながら、人々がLLMに対して人間らしさ(アントロポモーフィズム)や信頼をどのように付与するかを分析した。
  • 売り込みの「暖かさ」(親しみやすさ)と「認知的共感」が、アントロポモーフィズム、信頼、類似性、関係的な親密さ、苛立ち、有用性といった幅広い結果を一貫して有意に予測した。
  • 「能力」(能力・首尾一貫性)に対する評価は多くの結果を予測したが、人間らしさ(アントロポモーフィズム)そのものは予測しなかったことから、「人間らしさ」と「その他の判断」では異なる作用機序がある可能性が示された。
  • 「情動的共感」は主に関係性に関する評価に影響したが、信頼などの認識論的なアウトカムは予測しなかった。
  • 人間関係の助言のような主観的で個人的に関係の深い話題では、客観的な話題よりもLLMへの人間らしさや関係的なつながりが強まることが、トピック別分析で確認された。

要旨: 大規模言語モデル(LLM)が日常生活においてますます普及するにつれ、それらに対して人間のような心や感情を帰属したり、人間化(アントロポモーフィズム)したりする傾向も同様に強まってきています。ここでは、2,000件を超える人間—LLMの相互作用にわたって、人々がLLMに人間らしさを与え、信頼を帰属する際に用いる次元を調べます。参加者(N=115)は、LLMチャットボットと対話する中で、温かさ(親しみやすさ)、能力(能力の高さ、首尾一貫性)、共感(認知的および情動的)を体系的に変化させました。温かさと認知的共感は、(知覚される人間化、信頼、類似性、関係的な親密さ、苛立ち、有用性を含む)すべての結果に対して有意に予測しました。一方、能力は、人間化を除くすべての結果を予測しました。情動的共感は主に知覚される関係性の指標を予測しましたが、認識論的な結果(epistemic outcomes)を予測しませんでした。話題に関するサブ分析では、より主観的で個人的に関連のある話題(例:関係のアドバイス)が、これらの効果を増幅し、客観的な話題よりもLLMとの間でより大きな人間らしさと関係的なつながりを生み出すことが示されました。これらの知見は、人々が人工エージェントに対して関係的・認識論的な知覚を帰属する主要な次元として、温かさ、能力、共感が重要であることを明らかにしています。