LLMはどのように考えるのかもしれない
arXiv cs.AI / 2026/4/14
💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- この記事は、Daniel StoljarとZhihe Vincent Zhangによる合理性の議論を取り上げ、それによれば大規模言語モデルは「考える」ことができない可能性があると論じる。
- それに異議を唱え、たとえLLMが合理的な仕方で考えるわけではないとしても、非合理的で連想的な(arational、associative)認知の形であれば依然として実行できうる、と主張する。
- 著者らの肯定的な主張は、もしLLMが何らかの意味で考えるのなら、その「思考」は、おそらく規則に基づくものでも、熟慮的に合理的なものでもなく、純粋に連想的なものになるだろうという点にある。
- 本稿は、新しいモデルのリリースや実験の報告というより、研究発表および概念分析として位置づけられている。



