AI Navigate

独立エージェント型大規模言語モデルにおけるフレーミング効果: ファミリー横断の行動分析

arXiv cs.AI / 2026/3/23

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文では、閾値投票タスクを用いて、複数のファミリーにわたる独立エージェント型LLMの意思決定におけるプロンプトのフレーミング効果を分析する。
  • 異なるフレーミングを持つ、論理的に同値な二つのプロンプトは、LLMファミリー間で意思決定の分布に乖離を生じさせ、フレーミング効果を示した。
  • 表面的な言語的手掛かりが、根底にある論理的な定式化を上回ることがあり、形式的等価性を超える偏りを示している。
  • 本研究の知見は、相互作用のないマルチエージェントLLMの展開におけるフレーミングを主要なバイアス源として強調し、アラインメント(整合性)およびプロンプト設計への影響を示唆する。

Abstract

In many real-world applications, large language models (LLMs) operate as independent agents without interaction, thereby limiting coordination. In this setting, we examine how prompt framing influences decisions in a threshold voting task involving individual-group interest conflict. Two logically equivalent prompts with different framings were tested across diverse LLM families under isolated trials. Results show that prompt framing significantly influences choice distributions, often shifting preferences toward risk-averse options. Surface linguistic cues can even override logically equivalent formulations. This suggests that observed behavior reflects a tendency consistent with a preference for instrumental rather than cooperative rationality when success requires risk-bearing. The findings highlight framing effects as a significant bias source in non-interacting multi-agent LLM deployments, informing alignment and prompt design.