LLMコレクティブにおける客観的な意思決定を損なう重大な脆弱性としての社会的ダイナミクス

arXiv cs.CL / 2026/4/8

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、マルチエージェントLLMコレクティブにおける社会的ダイナミクスが、同輩の見解を集約して意思決定する代表(デリゲート)エージェントの信頼性をどのように損なう可能性があるかを検討する。
  • 4つのメカニズム――社会的同調、知覚される専門性、支配的話者効果、修辞的説得――を定義し、それらが意思決定の正確性に与える影響を検証する。
  • 実験では、敵対者(アドバーサリ)の人数、同輩の能力、議論の長さ、議論のスタイルを体系的に変化させ、その結果、社会的圧力が増すほど正確性が低下することを明らかにする。
  • 本研究はさらに、信頼性や論理性を強調する修辞的アプローチが、社会的文脈に応じてデリゲートの判断をさらに変化させ得ることも示す。
  • 総じて、これらの知見は、LLMマルチエージェントの意思決定が、個々の推論の質だけでなく、集団心理学のようなバイアスにも脆弱であることを示唆している。

要旨: 大規模言語モデル(LLM)エージェントは、マルチエージェント環境において人間の代表者のように振る舞うことがますます増えている。そこでは代表エージェントが、複数の仲間(ピア)の多様な視点を統合して最終決定を下す。本研究は社会心理学から着想を得て、この代表エージェントの信頼性が、そのネットワークの社会的文脈によってどのように損なわれるのかを検討する。我々は4つの主要な現象、すなわち社会的同調、認知された専門性、支配的話者効果、修辞的説得を定義し、敵対者の数、相対的な知能、議論の長さ、議論のスタイルを体系的に操作する。我々の実験では、社会的圧力が高まるほど代表エージェントの正確さが一貫して低下することが示された。すなわち、より大きな敵対的グループ、より能力の高い仲間、そしてより長い議論はいずれも、性能の顕著な劣化につながる。さらに、文脈に応じて、信頼性や論理性を強調する修辞的戦略は、エージェントの判断をさらに左右しうる。これらの発見は、マルチエージェントシステムが、個々の推論だけでなく、その構成における社会的ダイナミクスにも敏感であることを明らかにし、人間の集団意思決定で観察される心理学的バイアスと呼応する、AI代表(デリゲート)における重要な脆弱性を示している。