戦略的アルゴリズムの単一栽培:協調ゲームにおける実験的証拠
arXiv cs.AI / 2026/4/13
📰 ニュースSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本論文は、多主体環境においてAIエージェントがどのように協調するかを、「一次的なアルゴリズムの単一栽培」(基準となる行動の類似性)と「戦略的な単一栽培」(インセンティブに応じて類似性が変化すること)に分けて分析する。
- これらの力学を切り分ける実験設計を用いて、同研究は協調ゲームにおいて人間参加者と大規模言語モデル(LLM)エージェントの両方を検証する。
- 結果は、LLMが人間と同様に高い基準の行動類似性から開始し、その後、協調インセンティブが変化すると類似性を調整することを示している。
- しかし、報酬が発散(ダイバージェンス)を有利にする場合、LLMは時間を通じて異質性(ヘテロジニティ)を維持する点で人間よりも効果が低く、戦略的な非整合(ストラテジックなノンアラインメント)を維持するうえでの限界が示唆される。
- 本知見は、インセンティブに駆動された適応がLLMの協調において生じうる一方で、発散インセンティブ下での行動多様性が依然として重要な弱点であることを示している。




