大規模言語モデルにおける社会的意味:構造・大きさ・実用的(プラグマティック)プロンプト
arXiv cs.AI / 2026/4/6
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文は、新しいキャリブレーションに焦点を当てた指標(ESRとCDS)を用いることで、構造的忠実度と大きさ(マグニチュード)のキャリブレーションを切り分けつつ、大規模言語モデルが人間の社会的意味を質的・量的の両面で捉えられているかを検証する。
- 数値の(不)精密さに関するケーススタディを通じて、最先端のLLMは人間の社会的推論の質的な構造は再現するが、その推論の大きさのキャリブレーション(どれだけ強く捉えるか)については大きくばらつく。
- 実用理論(プラグマティック理論)に基づくプロンプト、具体的には話し手の知識状態や伝達上の動機について推論することを促す手法は、「代替可能性への気づき」を重視するプロンプトよりも、大きさの逸脱をより確実に減らす。
- 実用的な2つの構成要素を組み合わせることで、評価したすべてのモデルにわたって複数のキャリブレーションに敏感な指標が改善するが、きめ細かな大きさのキャリブレーションは依然として部分的にしか解決されない。
- 総合すると、結果はLLMが実用的/社会的推論の推論的(インフェレンシャル)構造をモデル化している一方で、その推論の強さは歪めていることを示唆し、また実用理論に基づくプロンプトは限定的で不完全な形でしか効果を示さない。
