LLMの誤謬(LLM Fallacy)—AI支援型認知ワークフローにおける誤った帰属
arXiv cs.AI / 2026/4/17
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文は、LLMの普及が人々の自己の能力評価にどのような変化をもたらすかを論じており、単にモデル出力への依存度だけを扱うものではありません。
- 「LLMの誤謬(LLM fallacy)」として、ユーザーがLLM支援による成果を、自分の単独の能力の証拠だと誤って解釈してしまう認知的な帰属の誤りを提示しています。
- 著者らは、LLMの不透明性、自然な流暢さ、そして操作の手間が小さいことが、人間と機械の寄与の境界を曖昧にし、成果物から能力を推測する傾向につながると説明しています。
- 本研究はオートメーションバイアスや認知的オフローディングなどの関連概念と位置づけつつ、AI媒介ワークフローに特有の帰属の歪みとして区別しています。
- 計算・言語・分析・創作といった領域にまたがるメカニズムの枠組みと現れ方の類型を提案し、教育、採用、AIリテラシーへの示唆と、実証検証に向けた方向性も述べています。



