EvoSelect:ターゲット課題適応のためのデータ効率の高いLLM進化
arXiv cs.CL / 2026/4/30
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- 本論文は、高品質な人手ラベル付きデータが高コストでスケールしにくい状況下で、大規模言語モデルを特定のターゲット課題へ効率的かつ効果的に適応させる方法を扱います。
- 反復的な生成→学習のループにおける生成候補は、ノイズが多い・冗長である・ターゲット課題の分布とずれているなどの問題があり、そのまま学習すると有用な学習シグナルが薄まり性能が悪化し得る点を指摘しています。
- EvoSelectは、モデル更新の前に選択ステップを入れる「生成→選択→学習」の反復フレームワークを提案し、学習データをより良いものへ絞り込みます。
- 候補の選択では、タスク整合性(プロキシ・グラディエント表現を用いた最適輸送で推定)と多様性(冗長性を抑え相補的なサンプルを広くカバーする多様化メカニズム)を同時に考慮します。
- 複数のベンチマークでの実験により、弱い生成器・強い生成器のいずれの場合でも、EvoSelectは既存のデータ選択手法より適応効果を一貫して改善することが示されています。



