より高い能力、より少ない協調? LLMが「ゼロコスト協調」において失敗する場合

arXiv cs.CL / 2026/4/10

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、「他者を助けることに直接的な個人的コストがかからない」ゼロコスト協調の設定において、LLMエージェントが協力に失敗するのはどのような場合かを調査し、能力の問題とは切り離した協調の失敗に焦点を当てる。
  • 能力が高いことが、より良い協調結果につながるとは必ずしも言えないことを示す。すなわち、OpenAIのo3は最適な集団パフォーマンスのうちわずか17%にとどまり、一方でo3-miniは同一の「集団の収益最大化」指示の下で50%を達成する。
  • 著者らは、エージェント間のコミュニケーションを自動分析する因果分解を用いて、協調の失敗と能力の失敗を切り分け、その原因をエージェントの推論および相互作用のダイナミクスにまでさかのぼって追跡する。
  • 特定を絞った介入の結果、低能力モデルでは明示的な協調プロトコルによりパフォーマンスが概ね2倍になることが示される。また、協調の傾向が弱いモデルでは、小さな共有インセンティブでも協調が改善し得る。
  • 本研究は、知能のスケーリングだけではマルチエージェントシステムにおける協調問題を解消する可能性は低いと結論づけ、協調のための意図的な設計と、相互作用メカニズムの整合(アラインメント)の必要性を強調する。

Abstract

大規模言語モデル(LLM)エージェントは、マルチエージェントシステムにおいてますます協調するようになっているが、協調の失敗がどこで、なぜ生じうるのかについての理解はまだ不足している。組織における知識共有からコードのドキュメント作成に至るまで、多くの現実の協調問題では、他者を助けることには個人のコストがほとんどない一方で、集団としては大きな便益が生まれる。しかし、LLMエージェントが、助ける側に利益も害もない状況で、かつそれを行うよう明示的な指示が与えられているにもかかわらず、協力するかどうかは不明である。我々は、協力からあらゆる戦略的複雑性を取り除いた、摩擦のない環境で協調行動を研究するためのマルチエージェントのセットアップを構築する。我々は、能力が協調を予測しないことを見いだす。OpenAI o3は、グループの売上を最大化するよう指示が同一であるにもかかわらず、最適な集団パフォーマンスのうちわずか17%しか達成できず、OpenAI o3-miniは50%に到達する。さらに、エージェント間のコミュニケーションの片側を自動化する因果分解を通じて、協調の失敗と能力の失敗を切り分け、エージェントの推論分析を通じてその起源を追跡する。特定の介入を試験した結果、明示的プロトコルは低能力モデルのパフォーマンスを2倍にし、微小な共有インセンティブは協調が弱いモデルの改善に有効である。これらの知見は、マルチエージェントシステムにおける協調問題は、知能をスケールするだけでは解決できず、他者を助けることにコストが一切かからない場合であっても、意図的な協調設計が必要であることを示唆している。