要旨: 私はPythiaスケーリング・スイート(Biderman et al. 2023)を用いて、LLMにおいて2つのよく知られた極性錯覚、すなわちNPI錯覚とデプスチャージ錯覚がどのように、またどの程度まで生じるのかを調査する。モデルのサイズが増加するにつれてNPI錯覚は弱くなり、最終的に消失する。一方で、デプスチャージ錯覚は大きなモデルでより強くなる。これらの結果は、人間の文処理に関する示唆を与える。極性錯覚を説明するために、不適格な文を適格な文へと変換する「合理的推論」メカニズムを仮定する必要はないかもしれない。というのも、LLMはこの種の推論を行えるとは考えにくく、とりわけ次トークン予測の暗黙レベルではそうであるからだ。他方で、浅い「十分に良い」処理、ならびに/または処方上は不適格な構造の部分的な文法化が、いずれもLLM内で起こりうる。私は、構文文法の基本的な前提に根ざした、異なる理論的説明の統合を提案する。
LLMは人間の極性錯視の背後にあるメカニズムについて何を教えてくれるのか?モデル規模と学習ステップをまたいだ実験
arXiv cs.CL / 2026/3/31
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文では、Pythiaのスケーリングスイートを用いて、人間で観察されるNPIおよびdepth chargeの極性錯視が、モデル規模や学習ステップの違いをまたいだLLMでも同様に生じるかどうかを検証する。
- その結果、NPIの錯視はモデル規模が大きくなるにつれて弱まり、やがて消失する一方で、depth chargeの錯視はより大きなモデルで強まることが分かる。
- 著者らは、こうしたパターンは、不適格な文を適格な文へと変換する「合理的推論」機構を人間に仮定する必要性を減らしうると主張している。というのも、LLMがそのような暗黙の次トークン推論を実行することは、もっともらしくないためである。
- 代わりに、本研究の結果は、浅い“十分に良い”処理や/または規範的に不適格な構造の部分的な文法化によって、モデルと人間の双方における錯視が説明できる可能性を示唆している。
- 本研究は、構文文法(construction grammar)に基づく統一的理論的統合を提案し、異なる種類の錯視にまたがってこれらのメカニズムを関連づけようとしている。



