要旨: 心の理論(ToM)――他者の心的状態をモデル化する能力――は、人間の社会的認知の基礎である。大規模言語モデル(LLM)がToMを発達させ得るかは、これまで静的なヴィネットによってのみ検証されており、動的な相互作用を通じてToMに類似した推論が生じ得るかどうかは未解決のままであった。ここでは、テキサス・ホールデムのポーカーを長時間実行する自律的なLLMエージェントが、永続メモリを備えた場合に限り、対戦相手の高度なモデルを段階的に発達させることを報告する。メモリ(あり/なし)とドメイン知識(あり/なし)を2×2の要因計画で交差させ、各条件につき5回の複製を行った(N = 20実験、約6,000のエージェント-ハンド観測)ところ、ToMに類似した振る舞いの出現にはメモリが必要かつ十分であることが分かった(Cliff's delta = 1.0、p = 0.008)。メモリを備えたエージェントはToMレベル3-5(予測的から再帰的モデリングへ)に到達する一方、メモリなしのエージェントはすべての複製においてレベル0のままであった。対戦相手モデルに基づく戦略的な欺瞞は、メモリ装備条件においてのみ生じた(Fisherの正確確率検定 p < 0.001)。ドメインの専門知識はToMに類似した振る舞いの出現をゲート(選別)しないが、適用を高める。ポーカー知識のないエージェントでも同等のToMレベルには到達するが、欺瞞の精度は低かった(p = 0.004)。ToMを持つエージェントは、ゲーム理論的に最適なプレイから逸脱し(TAG遵守 67% 対 79%、delta = -1.0、p = 0.008)、特定の相手を攻略するために動き、それは熟練した人間のプレイを模している。すべての心的モデルは自然言語で表現され、直接読めるため、AIの社会的認知を透明に見通す窓を提供する。GPT-4oによるクロスモデル検証では、重み付きCohenのカッパが0.81(ほぼ完全な一致)となった。これらの結果は、明示的な訓練やプロンプトなしで、相互作用のダイナミクスだけから機能的なToMに類似した振る舞いが生じ得ることを示しており、人工の社会的知能と生物学的な社会的認知の理解への示唆を与える。
Readable Minds: LLMポーカーエージェントにおける創発的な心の理論(ToM)様行動
arXiv cs.AI / 2026/4/7
📰 ニュースSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本論文は、LLMベースのポーカーエージェントが、静的なヴィネット課題ではなく、動的で拡張的なゲームプレイを通じて、ToM(心の理論)に似た相手モデリングを発達させ得ることを見出す。
- 2×2の設計において、永続的なメモリは、創発的なToM様行動に対して必要かつ十分であり、メモリのないエージェントは複数の再実験にわたって最下位レベルにとどまる。
- メモリの存在は、相手モデルに根ざした戦略的な欺き(deception)を可能にするが、メモリのないエージェントではそのような行動は見られない。
- ドメイン知識(ポーカーの専門性)はToM様の水準に到達するのに必須ではないが、ToM様のモデリングが立ち上がった後では、欺きの精度が向上する。
- ToM様の振る舞いを示すエージェントは、ゲーム理論的に最適なプレイから逸脱して、特定の相手を攻略するために行動し、本論文ではGPT-4oによるクロスモデル検証と、読める自然言語での「心的モデル」を報告している。



