言語モデルはイン・コンテキストで学習した表現を使うのが苦手
arXiv cs.CL / 2026/5/4
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本研究は、イン・コンテキストの例から学習した表現を、デプロイ後の下流タスクで確実に活用できるかを調べている。
- 実験の結果、オープンウェイトのLLMは、潜在表現に新しい意味論をエンコードしているとしても、イン・コンテキストで定義された表現をうまくデプロイできずに苦戦することが示された。
- 著者らは「adaptive world modeling」と呼ばれる新しいベンチマークを用いて検証し、クローズドソースの最先端推論モデルでもイン・コンテキストで提示された新しいパターンを一貫して活用できないことを明らかにした。
- 全体として、本研究は、モデルがイン・コンテキストに提示された情報をエンコードできるだけでなく、それを柔軟にデプロイ可能な形でエンコードできるようにするための新たな方法の必要性を示唆している。
- これらの知見は、イン・コンテキストでの表現学習と、「デプロイ先の大幅に新しい状況に適応する」というより大きな目標との間にギャップがあることを浮き彫りにしている。



