説得のパラドックス:LLMによる説明が人とAIのチーム性能を向上させられないとき

arXiv cs.AI / 2026/4/7

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文は「説得のパラドックス」を提起し、LLMの説明がユーザーの自信や依存を高めうる一方で、信頼できる形で改善につながらず、場合によっては人とAIのチームの課題正確性をむしろ低下させることがあると主張している。
  • 3つの統制された研究(RAVENの視覚推論とLSAT形式の論理推論)を通じて、説明ベースのインターフェースは自信を向上させることが多いが、AI予測のみから得られる精度を打ち負かせないことが多く、モデルの誤りを修正するユーザーの能力を弱めることが示された。
  • 視覚推論では、モデルの不確実性(予測確率など)を提示し、不確かなケースは選択的に自動化せず人に委ねるインターフェースが、説明よりも高い精度とより良いエラー回復を達成した。
  • しかし、言語ベースの論理推論ではLLMの説明が最も高い精度と回復を生み、確率ベースの支援や専門家が書いた説明の双方を上回った。これはタスク依存の強い効果を示している。
  • 著者らは、信頼や分かりやすさのような主観的指標は性能の代替指標として不適切だと結論づけ、説得力のある流暢さではなく、較正された依存とエラー回復を重視するインタラクション設計を推奨している。

Abstract

大規模言語モデル(LLM)による自然言語の説明は透明性と信頼を高めるために広く採用されていますが、人間—AIチームの客観的なパフォーマンスへの影響は十分に理解されていません。私たちは「説得のパラドックス」を特定します。すなわち、流暢な説明はユーザーの自信とAIへの依存を体系的に高める一方で、確実に改善することなく、場合によってはタスク精度を損ないます。 抽象的な視覚推論(RAVENマトリクス)と演繹的な論理推論(LSAT問題)にわたる、3つの制御された被験者研究を通じて、多段階の開示設計と被験者間比較を用い、AI予測と説明の効果を切り分けました。視覚推論では、LLMの説明は自信を高めますが、精度はAI予測だけの場合を超えて改善せず、さらにモデルの誤りからユーザーが回復する能力を大きく抑制します。予測確率を通じてモデルの不確実性を示すインターフェースや、不確実なケースを人間に委ねる選択的な自動化ポリシーは、説明ベースのインターフェースよりも、精度と誤り回復の双方で有意に高い成果を達成します。 これに対して、言語ベースの論理推論タスクでは、LLMの説明が最も高い精度と回復率をもたらし、専門家が書いた説明や確率ベースの支援の両方を上回ります。この分岐は、物語(ナラティブ)形式の説明の有効性がタスクに強く依存し、認知モダリティによって媒介されることを示しています。 私たちの結果は、信頼、確信、知覚された明瞭さといった一般に用いられる主観的指標が、人間—AIチームのパフォーマンスを予測するのに不十分であることを示します。説明を普遍的な解決策として扱うのではなく、説得的な流暢さよりも、較正された依存と効果的な誤り回復を優先する相互作用設計への転換を提案します。