LLMはまだ「意思決定の説明」を担ったと評価すべきではない

arXiv cs.AI / 2026/5/5

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、LLMに「意思決定の説明(decision explanation)」の功績をまだ与えるべきではないと主張し、現在の根拠が説明を予測性能やもっともらしい理屈付けと混同しがちだと述べています。
  • 著者らは「意思決定予測」「ラショナル生成」「意思決定の説明」の3つの主張を区別し、提示されることの多い証拠の多くは主に最初の2つを支持するにとどまり、場合によっては限定的な仮説生成を示すだけで、真に説明と呼べるものを区別できていないと論じています。
  • 「ブリッジ標準(bridge standard)」として、より強い主張ほど説明目標を明確化し、弱い“合理化(rationalizer)”の代替案を退け、さらに目標に適した検証と、関連するプロセスや介入に敏感な評価を行うことを求めています。
  • 最後に「クレジットの校正(credit calibration)」の原則を示し、LLMにはその証拠が裏付ける最も強い主張までに限って功績を与えるべきだとし、人間の意思決定モデリングにおける説明的進歩を時期尚早に再定義しないよう警告しています。

要旨: 本論文は、LLM(大規模言語モデル)に対して、まだ意思決定の説明に関する功績を与えるべきではないと主張する。これは重要である。というのも、近年の研究では、正確な行動予測、もっともらしい理屈(合理化)、そして結果に条件づけられた推論の痕跡を、LLMが人がどのように決めるのかその「理由」を説明している証拠として扱うことがますます増えているからである。そうすると、人間の意思決定モデリングにおける「説明の進歩」とは何かが、時期尚早に再定義されるリスクがある。まず、異なる証拠負担を伴う3つの主張――意思決定予測、理屈の生成、意思決定の説明――を区別する。次に、LLMを用いた意思決定の説明に関する主張について一般に提示される証拠は、最初の2つの主張を直接支持し、場合によっては説明的仮説の生成も支持するが、「意思決定の説明」と「予測を支持するための合理化」とを区別するものではない、と論じる。続いて、意思決定の説明に対する功績付与のためのブリッジ基準(架橋基準)を提案する。すなわち、より強い主張は説明の到達目標(エクスプレナトリー・ターゲット)を明確にし、弱い合理化者の代替案に対して識別的に不利に働くようにし、目標に適したプロセスまたは介入に敏感な検証を用い、その射程を限定すべきである。次に、この基準を、対立する見解や関連する文献と位置づけ、なぜそれが、LLMを予測者、語り手(ナレーター)、仮説生成者として価値のある存在に保ちつつ、時期尚早な説明的功績付与に抵抗できるのかを明確にする。最後に、功績の較正(クレジット・キャリブレーション)の原則を提示する。すなわち、LLMには、その証拠が正当化する最も強い主張までを功績として与え、それ以上のものは与えない。この原則を採用すれば、LLMを、意思決定を説得的に語る語り手から、人間の行動の説明を見つけ、検証し、伝達するための、より信頼できる道具へと転換するのに役立つ可能性がある。