イン・コンテキスト学習(ICL)とインストラクション・チューニングの比較:小規模かつ多言語言語モデルの事例
arXiv cs.CL / 2026/5/1
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文は、インストラクション・チューニング(収集済みの指示データセットによる教師あり微調整、必要に応じて人の嗜好によるアラインメントを追加)と、イン・コンテキスト学習(ICL)によるベースLLMの「指示追従」学習の代替可能性を比較しています。
- 著者らは、特に資源負担が大きくなりがちな非英語言語や、モデル規模をまたぐ状況を対象に、小規模かつ多言語言語モデルでICLが指示追従をどれだけ実現できるかを評価しています。
- その結果、非英語およびモデル規模をまたぐ条件では、ICLによる指示追従性能が低下することが示されています。
- 一方で、ベースモデルにDirect Preference Optimization(DPO)を適用するとベースライン結果が部分的に改善することを示しますが、現在のICL指示追従を大規模な英語中心モデルの水準に近づけるには、別の手法が必要だと述べています。
- 総じて、ICLだけでは小規模・多言語での頑健な指示追従を十分に実現できない可能性があり、今後の手法に残されたギャップが示唆されています。




