説得のパラドックス:LLMによる説明が人とAIのチーム性能を向上させられないとき
arXiv cs.AI / 2026/4/7
💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本論文は「説得のパラドックス」を提起し、LLMの説明がユーザーの自信や依存を高めうる一方で、信頼できる形で改善につながらず、場合によっては人とAIのチームの課題正確性をむしろ低下させることがあると主張している。
- 3つの統制された研究(RAVENの視覚推論とLSAT形式の論理推論)を通じて、説明ベースのインターフェースは自信を向上させることが多いが、AI予測のみから得られる精度を打ち負かせないことが多く、モデルの誤りを修正するユーザーの能力を弱めることが示された。
- 視覚推論では、モデルの不確実性(予測確率など)を提示し、不確かなケースは選択的に自動化せず人に委ねるインターフェースが、説明よりも高い精度とより良いエラー回復を達成した。
- しかし、言語ベースの論理推論ではLLMの説明が最も高い精度と回復を生み、確率ベースの支援や専門家が書いた説明の双方を上回った。これはタスク依存の強い効果を示している。
- 著者らは、信頼や分かりやすさのような主観的指標は性能の代替指標として不適切だと結論づけ、説得力のある流暢さではなく、較正された依存とエラー回復を重視するインタラクション設計を推奨している。



