AI Navigate

LLMベースのマルチエージェント協調における適応的心の理論

arXiv cs.AI / 2026/3/18

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、LLM駆動エージェント間での心の理論(ToM)深度の不一致が、マルチエージェントタスクにおける協調を妨げる可能性があることを指摘している。
  • 過去の相互作用からパートナーのToM順序を推定し、推論を整合させ、相手の行動を予測するAdaptive ToM(A-ToM)エージェントを提案している。
  • 4つのタスク(反復型マトリックスゲーム、2つのグリッドナビゲーションタスク、およびOvercookedタスク)にわたる実証評価は、ToMの整合が協調を向上させることを示している。
  • 本研究は、A-ToMの非LLMベースのエージェントへの一般化可能性を検討し、ToM整合の重要性が低下する可能性のある条件を探っている。
  • この知見は、将来のマルチエージェントシステムの設計およびAIアプリケーションにおける協働戦略に示唆を与える。

要旨: 心の理論(ToM)は、他者の心的状態について推測する能力を指し、上位のToMは他者も自分自身のToMを持つことを考慮することを含む。大規模言語モデル(LLM)主導のエージェントにToMを装備させることは、長い間、マルチエージェント協調タスクにおける協調を向上させると考えられてきた。しかし、エージェント間でToM推論の深さが一致しない(ToM順序のずれ)が、他者についての推論を不十分または過剰にし、協調を阻害することがある。 この問題に対処するため、パートナーとToMの順序を揃えることができる適応的ToM(A-ToM)エージェントを設計した。過去の相互作用に基づいて、エージェントはパートナーの推定されるToM順序を見積もり、この推定を利用してパートナーの行動を予測し、行動的な協調を促進する。私たちは4つのマルチエージェント協調タスクで経験的評価を行った。反復行列ゲーム、2つのグリッドナビゲーションタスク、およびOvercookedタスク。結果はToM整合性に関する我々の発見を検証し、A-ToMエージェントの有効性を示している。さらに、非LLMベースのエージェントへのA-ToMの一般化可能性や、ToM整合性の重要性を低下させうる要因についても論じる。