多言語言語モデルにおける計算上の病変:共有と言語固有の脳アライメントを分離する
arXiv cs.CL / 2026/4/14
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本研究は、脳における多言語の言語処理表現がどのように形成されるかを、6つの多言語LLMを神経メカニズムの制御可能な代理として用いて検討する。
- 研究者らは、言語間で共有されるパラメータ、または特定の1言語に固有のパラメータをゼロ化することで、狙いを定めた「計算上の病変(computational lesions)」を導入し、そのモデルの振る舞いを人のfMRIと比較する。
- コンパクトな共有コアに病変を与えると、全脳のエンコーディング相関が急激に低下(60.32%減)し、脳のアライメントにおける共有パラメータの因果的役割が示される。
- 言語固有の病変では埋め込み空間における言語間の分離は保たれる一方で、母語/対応する言語に対する脳の予測可能性が低下し、埋め込みにおける専門化(specializations)が示唆される。
- 結果は「共有バックボーンに言語別のコンポーネントを組み合わせる」枠組みを支持し、多言語の脳—モデル対応(アライメント)研究に対する因果的アプローチを提案する。




