コンテキストが“張り付く”とき:イン・コンテキスト学習における干渉の研究
arXiv cs.LG / 2026/4/28
💬 オピニオンModels & Research
要点
- 本論文は、イン・コンテキスト学習(ICL)における「コンテキスト・スティックiness(文脈の張り付き)」、つまりプロンプト内の最初の例が後続タスクの予測を継続的にバイアスしてしまう現象を扱っています。
- 線形から2次へのタスク切り替えを伴う合成回帰ベンチマークを用い、著者らは誤解を招く文脈が予測誤差をどれだけ増やし、切り替え後にモデルがどれほど素早く回復するかを定量化しています。
- 結果として、干渉は持続的であり、誤った線形の先行例を増やすほど2次の予測品質は一貫して悪化する一方、正しい2次の例を増やすことは有効だが限界(逓減)も見られます。
- さらに、学習カリキュラムが頑健性に大きく影響し、対象の関数クラスに対する逐次学習が最も回復が速いのに対し、ランダム学習は最も耐性が低い挙動を示すことが明らかになりました。



