文脈からスキルへ:言語モデルは文脈を“巧みに”学習できるのか?
arXiv cs.AI / 2026/5/1
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- 多くの現実のタスクでは、言語モデルが固定されたパラメトリック知識を超える長く複雑な文脈を推論する必要があり、「文脈学習」が求められる。
- 本論文は、推論時のスキル拡張として文脈に特化した自然言語スキルを自律的に発見・改良・選択する Ctx2Skill を提案し、人手による監督や外部フィードバックなしで実現する。
- Ctx2Skill は Challenger/Reasoner/中立 Judge からなるマルチエージェントの自己対戦ループに加え、失敗ケースを分析して両者のスキル更新へ落とし込む Proposer/Generator を中核としている。
- 課題生成が過激化したりスキルが過度に専門化したりして対立が崩壊することを防ぐため、代表的ケースに対する Reasoner 側のバランスが最良となるスキル集合を選ぶ Cross-time Replay を導入する。
- 実験では CL-bench の4つの文脈学習タスクで、獲得したスキルを複数のバックボーン言語モデルに組み込むことで解答率が一貫して向上することが示されている。




