マルチユーザー・大規模言語モデル・エージェント

arXiv cs.CL / 2026/4/13

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、LLMベースのエージェントシステムの多くが単一の主要利用者(principal)を前提としているが、実際のチーム/組織の業務フローでは、権限・役割・嗜好が異なる複数ユーザーの設定が必要になると主張する。
  • LLMエージェントとのマルチユーザー相互作用を、複数principalによる意思決定問題として形式化し、対立、情報の非対称性、プライバシー制約を明示的にモデル化する。
  • 著者らは、統一的なマルチユーザー相互作用プロトコルを提案し、指示追従、プライバシー保護、協調を焦点とした3つのストレステスト用シナリオを導入する。
  • 実験では、最先端の現在のLLMに一貫した弱点が示されており、対立する目的の下での優先順位付けの不安定さ、マルチターン会話におけるプライバシー侵害の増大、反復的な協調の際の効率ボトルネックなどが挙げられる。

要旨: 大規模言語モデル(LLM)およびLLMベースのエージェントは、計画や意思決定におけるアシスタントとしてますます導入されているが、既存のほとんどのシステムは、単一の主要なユーザーとの相互作用パラダイムに対して暗黙的に最適化されている。そこでは、モデルは、指示が唯一の権威および有用性の源泉として扱われる、支配的な1人のユーザーの目的を満たすよう設計されている。しかし、これらがチームの業務フローや組織のツールに統合されるにつれ、同時に複数のユーザーにサービスを提供することがますます求められるようになってきた。各ユーザーには異なる役割、嗜好、権限レベルがあり、その結果、避けられない対立、情報の非対称性、およびプライバシー制約を伴う、複数ユーザー・複数プリンシパルの状況が生じる。本研究では、複数ユーザーLLMエージェントに関する最初の体系的な研究を提示する。まず、LLMエージェントとの複数ユーザー相互作用を、多プリンシパルの意思決定問題として形式化し、単一のエージェントが、利害が衝突し得る複数のユーザーと、それに伴う課題を考慮しなければならない状況を定義する。次に、統一された複数ユーザー相互作用プロトコルを導入し、さらに3つの的を絞ったストレステストのシナリオを設計して、命令追従、プライバシー保護、および協調に関して、現在のLLMがどの程度の能力を持つかを評価する。結果は、体系的なギャップを明らかにする。最先端のLLMは、ユーザーの目的が衝突する状況で、安定した優先順位付けを維持できないことが多く、複数ターンの相互作用においてプライバシー侵害が増加し、協調が反復的な情報収集を必要とすると効率面でのボトルネックに陥る。