LLMsにおける長文コンテキスト推論のための分解(デコンポジション)的観点
arXiv cs.CL / 2026/4/10
📰 ニュースSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本論文は、LLMにおける長文コンテキスト推論の失敗が、研究者がその課題を内部構造を分析せずに全体として扱っていることに、部分的に起因していると主張する。
- 長文コンテキスト推論を複数の原子的スキルに分解し、各スキルを切り分けて学習できるように、狙いを定めた疑似データセットを生成する。
- 著者らは、これらの原子的スキルのスコアが、各種ベンチマークにおける総合的な長文推論の性能と強く相関することを見出す。
- 疑似データセットに対して強化学習を用いることで、方法は原子的スキルを改善し、より良い一般的な長文コンテキスト推論結果をもたらす。
- いくつかのベンチマークにまたがる実験では平均で7.7%の性能向上(46.3%から54.0%)が示され、このアプローチが効果的で汎用可能であることを示している。


