メカニズムを埋める:発達上の制約下でLMはフィラー-ギャップ依存をどのように学習するのか?
arXiv cs.CL / 2026/4/17
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- この論文は、wh-疑問文やトピック化など異なる統語構文間で、フィラー-ギャップ依存に関する表象が言語モデルにおいても転移可能に形成されるかを検討します。
- BabyLMチャレンジのデータ量を変えて学習したLMに対してDistributed Alignment Search(DAS)を適用し、学習がデータ量の制約下でどう振る舞うかを調べています。
- 結果として、学習が限られたデータ量でも「共有されるが項目に依存する」メカニズムが発達し得ることが示唆されます。
- とはいえ、人間と同等に近い一般化を獲得するにはモデルがはるかに多くのデータを必要とするため、獲得理論には言語固有の帰納バイアスの重要性が示されます。



