抽象: 脳に整合した大規模言語モデル(LLM)は、認知モデルとしての可能性や、AIにおける安全性と信頼性の向上が期待されることから注目を集めている一方で、言語能力に対してこの脳整合が果たす役割は依然として不明です。本研究では、脳に整合しないモデル――すなわち、言語モデルとしての性能を高いまま維持しつつ、脳活動をうまく予測するようには意図的に訓練されていないLLM――を導入することで、脳整合の機能的な含意を検討します。意味、統語、談話、推論、形態など、多様な言語領域を含む200件超の下流タスクに対してこれらのモデルを評価します。脳に整合しないモデルと、十分に対応した脳に整合したモデルを比較することで、言語理解における脳整合の特定の影響を切り分けます。その結果、脳の不整合は下流性能を大きく低下させることが明らかになり、頑健な言語能力を達成するうえで脳整合が重要であることを示しています。これらの知見は、LLMにおける脳整合の重要性を強調するとともに、神経表象と語学的処理の関係について新たな洞察を提供します。
言語モデルが心を失うとき:脳のミスアラインメントがもたらす影響
arXiv cs.CL / 2026/3/25
💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本論文は、大規模言語モデルにおける「脳のアラインメント」(脳活動によりよく一致するように学習すること)が言語能力に重要かどうかを検討し、安全で信頼できるAIへの関心が高まる一方で、この点は未解決の課題である。
- 脳活動の予測と照らして整合性が低い一方で、強力な言語モデルとしての性能は維持する、意図的に脳ミスアラインメントされたLLMを導入する。
- 意味論、統語論、談話、推論、形態論にまたがる200以上の下流NLPタスクにわたる評価により、脳のミスアラインメントは下流性能を大きく低下させることが示される。
- よくアラインメントされた対応モデルとの比較により、言語理解に対する脳アラインメントの効果が切り分けられ、神経表現の整合性と頑健な言語能力の結びつきが明らかになる。




