高ボラティリティとアクションバイアスが、集団協調においてLLMを人間と区別する
arXiv cs.AI / 2026/4/6
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文は、プレイヤーが不完全な集団フィードバックをもとに数値の提出を反復的に調整する、無通信の共通利益ゲームであるGroup Binary Searchにおいて、LLMと人間の協調を比較する。
- 結果は、通常、人間は繰り返しゲームを通じて行動を適応させ安定化するのに対し、LLMは改善に失敗し、収束を妨げる過度なアクションの切り替えを示すことを明らかにする。
- 本研究では、より情報量の多いフィードバック(数値誤差の大きさなど)を与えると、人間の参加者には大きな効果がある一方で、LLMの性能にはわずかな影響しかないことを見出す。
- 反応性のスケーリングや、ゲーム間での切り替えダイナミクスといったメカニズムレベルの診断を用いることで、著者らは人間とLLMの集団間の行動の違いを強調し、「協調ギャップ」を現実に即して診断するための方法を提案する。




