LLMの誤謬(LLM Fallacy)—AI支援型認知ワークフローにおける誤った帰属

arXiv cs.AI / 2026/4/17

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、LLMの普及が人々の自己の能力評価にどのような変化をもたらすかを論じており、単にモデル出力への依存度だけを扱うものではありません。
  • 「LLMの誤謬(LLM fallacy)」として、ユーザーがLLM支援による成果を、自分の単独の能力の証拠だと誤って解釈してしまう認知的な帰属の誤りを提示しています。
  • 著者らは、LLMの不透明性、自然な流暢さ、そして操作の手間が小さいことが、人間と機械の寄与の境界を曖昧にし、成果物から能力を推測する傾向につながると説明しています。
  • 本研究はオートメーションバイアスや認知的オフローディングなどの関連概念と位置づけつつ、AI媒介ワークフローに特有の帰属の歪みとして区別しています。
  • 計算・言語・分析・創作といった領域にまたがるメカニズムの枠組みと現れ方の類型を提案し、教育、採用、AIリテラシーへの示唆と、実証検証に向けた方向性も述べています。

Abstract

大規模言語モデル(LLM)が日常の業務プロセスに急速に統合されたことで、個人が文章作成、プログラミング、分析、多言語コミュニケーションといった認知的タスクを行う方法は大きく変わった。先行研究では、モデルの信頼性、幻覚、そしてユーザーの信頼の較正に焦点が当てられてきた一方で、LLMの利用がユーザー自身の能力に対する認識をどのように再形成するのかには、あまり注意が払われていない。本論文は「LLMの誤謬(fallacy)」を導入する。これは認知的な帰属(attribution)の誤りであり、個人がLLMによって支援された出力を、自分自身の独立した能力の証拠として誤解し、その結果、認識される能力と実際の能力との間に体系的な乖離が生じるものである。ここでは、LLMの不透明性、流暢さ、そして低摩擦な対話パターンが、人間と機械の貢献の境界を曖昧にし、ユーザーがそれを生成するプロセスではなく、出力から能力を推論するように導くと論じる。私たちは、LLMの誤謬を、自動化バイアス、認知的オフローディング、人間--AIの協働に関する既存研究の中に位置づけつつ、それをAIを介したワークフローに特有の帰属の歪みの一形態として区別する。本論文では、その背後にあるメカニズムの概念的枠組みと、計算、言語、分析、創造という領域にまたがる多様な現れ(manifestations)に関する類型(typology)を提案する。最後に、教育、採用、そしてAIリテラシーに関する示唆を検討し、実証的検証に向けた方向性を示す。さらに、人間--AIの協働における方法論を透明性のある形で説明する。本研究は、生成AIシステムが単に認知パフォーマンスを増強するだけでなく、自己認識や、認められる専門性(perceived expertise)までもどのように再形成するのかを理解するための基盤を築く。