LLMはどのように考えるのかもしれない

arXiv cs.AI / 2026/4/14

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • この記事は、Daniel StoljarとZhihe Vincent Zhangによる合理性の議論を取り上げ、それによれば大規模言語モデルは「考える」ことができない可能性があると論じる。
  • それに異議を唱え、たとえLLMが合理的な仕方で考えるわけではないとしても、非合理的で連想的な(arational、associative)認知の形であれば依然として実行できうる、と主張する。
  • 著者らの肯定的な主張は、もしLLMが何らかの意味で考えるのなら、その「思考」は、おそらく規則に基づくものでも、熟慮的に合理的なものでもなく、純粋に連想的なものになるだろうという点にある。
  • 本稿は、新しいモデルのリリースや実験の報告というより、研究発表および概念分析として位置づけられている。

Abstract

大規模言語モデル(LLM)は考えるのだろうか?ダニエル・ストルジャーとジーヘ・ヴィンセント・チャンは、LLMは考えないという主張のために、合理性に基づく議論を最近展開した。しかし我々は、その合理性に基づく議論は単に不十分であるだけでなく、興味深い可能性を開くことになると主張する。すなわち、LLMは合理的でない、連想的な形式の思考にのみ従事しており、純粋に連想的な心を持っているのだ、という可能性である。我々の肯定的主張は、もしLLMが何らかの意味で考えるのだとすれば、おそらくまさにこのような仕方で考えるということである。