戦略的アルゴリズムの単一栽培:協調ゲームにおける実験的証拠

arXiv cs.AI / 2026/4/13

📰 ニュースSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、多主体環境においてAIエージェントがどのように協調するかを、「一次的なアルゴリズムの単一栽培」(基準となる行動の類似性)と「戦略的な単一栽培」(インセンティブに応じて類似性が変化すること)に分けて分析する。
  • これらの力学を切り分ける実験設計を用いて、同研究は協調ゲームにおいて人間参加者と大規模言語モデル(LLM)エージェントの両方を検証する。
  • 結果は、LLMが人間と同様に高い基準の行動類似性から開始し、その後、協調インセンティブが変化すると類似性を調整することを示している。
  • しかし、報酬が発散(ダイバージェンス)を有利にする場合、LLMは時間を通じて異質性(ヘテロジニティ)を維持する点で人間よりも効果が低く、戦略的な非整合(ストラテジックなノンアラインメント)を維持するうえでの限界が示唆される。
  • 本知見は、インセンティブに駆動された適応がLLMの協調において生じうる一方で、発散インセンティブ下での行動多様性が依然として重要な弱点であることを示している。

Abstract

AIエージェントはますます、結果が協調に依存するマルチエージェント環境で動作するようになっています。ここでは、一次的なアルゴリズム的モノカルチャ(基準となる行動類似度)と、戦略的なアルゴリズム的モノカルチャを区別します。後者では、エージェントがインセンティブに応じて類似度を調整します。私たちは、これらの力を明確に切り分ける単純な実験設計を実装し、それを人間および大規模言語モデル(LLM)の被験者に適用します。LLMは高い水準の基準的類似度(一次的モノカルチャ)を示し、そして人間と同様に、協調のインセンティブに応じてそれを調整します(戦略的モノカルチャ)。類似した行動に関してはLLMは非常にうまく協調しますが、発散が報酬化される場合に異質性を維持し続ける点では、人間に遅れをとります。