なぜLLMは戦略ゲームで苦戦するのか——観測・信念・行動のつながりの欠陥

arXiv cs.AI / 2026/5/4

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、不完全情報下での戦略的意思決定においてLLMがつまずく理由を、内部メカニズムのギャップとして整理し、実験によって明らかにする。
  • 「観測–信念ギャップ」として、LLMは潜在するゲーム状態について、言語化した説明よりも内部の信念の方が実際にはかなり正確だが、その信念は脆く、マルチホップ推論で精度が低下することを示す。
  • さらに、信念にはプライミシー/レシェンシーのバイアスや、長い相互作用の中でベイズ的コヒーレンスからの逸脱が起きると報告している。
  • 「信念–行動ギャップ」では、内部の信念を行動へ暗黙に変換する力が、プロンプトで外部化された信念の影響より弱いこと、また信念条件付けを行っても報酬(ペイオフ)が一貫して改善するとは限らないことが示される。
  • 著者らは、LLMの内部プロセスを分析することで体系的な脆弱性が見えるため、ガードレールが十分でないまま戦略領域にLLMを投入することには注意が必要だと結論づける。

要旨: 大規模言語モデル(LLM)は、交渉や政策立案など、不完全情報のもとでの戦略的意思決定を担うことがますます増えています。LLMはこのような多くの課題で優れた性能を発揮できる一方、理解が十分ではない形で失敗することもあります。本稿では、オープンウェイトモデルのLlama 3.1、Qwen3、gpt-ossを用いた実験により、不完全情報ゲームにおけるLLMの意思決定を支える内部メカニズムに関する2つの根本的なギャップを明らかにすることで、これらの失敗の原因に光を当てます。第一に、観測—信念ギャップです。不完全情報下のゲーム状態に関する潜在的な内部信念をLLMは、その自己の言語による報告よりもはるかに高い精度で符号化しますが、それらの信念は脆いのです。具体的には、信念の精度はマルチホップ推論にともなって低下し、プライミシー効果とレシェンシー(新近性)バイアスを示し、長期にわたる相互作用の中でベイズ的なコヒーレンスから逸脱します。第二に、信念—行動ギャップです。内部信念を行動へ暗黙に変換する力は、プロンプトとして外部化された信念のそれよりも弱いにもかかわらず、信念を条件付けすることがゲームの報酬(ペイオフ)を一貫して高めるわけではありません。これらの結果は、LLMの内部プロセスを分析することで、体系的な脆弱性を明らかにでき、強固なガードレールなしにLLMを戦略的領域へ導入する前に慎重さが必要であることを示しています。