要旨: 本稿は直感に反する命題を提案し、それを支持する。すなわち、巨大言語モデル(LLMs)の真に価値のある能力は、人間が読み取れる離散的な規則では完全には捉えきれない部分に正確に存在する。核となる主張は、背理法による専門家システムの同等性を介した証明である。もしLLMの全能力が人間が読み取れる完全な規則の集合で記述可能であるなら、その規則集合は機能的には専門家システムと同等になるはずだ。しかし、専門家システムは歴史的にも実証的にもLLMsより厳密に劣ることが示されている。したがって、矛盾が生じる――LLMsが専門家システムを超える能力は、まさに規則として組み込むことができない能力である。この命題は、中国哲学の「無」(実践を通じた突然の洞察)の概念、専門家システムの歴史的失敗、そして人間の認知ツールと複雑なシステムとの構造的な不一致によってさらに支持される。本論文は、解釈可能性研究、AIの安全性、そして科学的認識論への含意について論じる。
LLMsの価値ある能力はなぜまさに説明不能なものなのか
arXiv cs.AI / 2026/3/17
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- 本論は、LLMの最も価値ある能力が人間が読める規則では捉えきれない側面にあると主張し、有用な挙動のすべてが離散的な規則として符号化できるという考えに挑戦する。
- 専門家システムとの同値性を用いた背理法を採用している:LLMの能力が完全なルール集合で完全に記述できるなら、その規則集合は機能的にエキスパートシステムと同等になるはずだが、実証的証拠はエキスパートシステムがLLMsよりも劣ることを示している。
- 著者らは Wu(実践を通じた突然の洞察)、エキスパートシステムの歴史的な失敗、そして人間の認知ツールと複雑系との構造的ミスマッチを挙げて自説を支持している。
- 彼らは解釈可能性研究、AI安全性、科学的認識論への含意を論じ、将来の研究では規則に基づかない性質に注目すべきだと主張している。