Optimizing Service Operations via LLM-Powered Multi-Agent Simulation

arXiv cs.AI / 4/7/2026

📰 NewsSignals & Early TrendsIdeas & Deep AnalysisModels & Research

Key Points

  • 研究では、人間の行動は複雑で応答のモデリングが難しいというサービス運用の課題に対し、LLMを用いたマルチエージェント・シミュレーション(LLM-MAS)枠組みを提案しています。
  • デザイン選択をプロンプトに埋め込み、LLM生成テキストから数値情報を抽出して、意思決定に依存する不確実性を制御付きマルコフ連鎖としてモデル化します。
  • 1回のシミュレーション実行の中で、定常状態の性能を最大化するためのオン・トラジェクトリ学習アルゴリズムを開発し、ゼロ次勾配推定と設計パラメータ更新を同時に行います。
  • 分散低減などの工夫により、サステナブルなサプライチェーン最適化の例でベンチマーク(ブラックボックス最適化やLLMを数値ソルバ/ロールプレイ役割設計として使う方法など)を上回ると報告しています。
  • さらに、実データに基づくコンテスト設計のケーススタディでは、既知設計のコスト効率の高い評価と、従来手法が見落とす有望設計の探索の両面で有効性を示しています。

Abstract

Service system performance depends on how participants respond to design choices, but modeling these responses is hard due to the complexity of human behavior. We introduce an LLM-powered multi-agent simulation (LLM-MAS) framework for optimizing service operations. We pose the problem as stochastic optimization with decision-dependent uncertainty: design choices are embedded in prompts and shape the distribution of outcomes from interacting LLM-powered agents. By embedding key numerical information in prompts and extracting it from LLM-generated text, we model this uncertainty as a controlled Markov chain. We develop an on-trajectory learning algorithm that, on a single simulation run, simultaneously constructs zeroth-order gradient estimates and updates design parameters to optimize steady-state performance. We also incorporate variance reduction techniques. In a sustainable supply chain application, our method outperforms benchmarks, including blackbox optimization and using LLMs as numerical solvers or as role-playing system designers. A case study on optimal contest design with real behavioral data shows that LLM-MAS is both as a cost-effective evaluator of known designs and an exploratory tool that can uncover strong designs overlooked by traditional approaches.