大規模言語モデルのための、最適化器に配慮した二段階オンラインデータ選択
arXiv cs.AI / 2026/4/2
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文は、LLMの微調整における勾配ベースのデータ選択はオフラインでは有効である一方、データが逐次的に到着し、効用が現在の最適化ステップや幾何に依存するオンライン微調整には適していないと主張する。
- 現在の最適化器の状態のもとで、選択を次のターゲット志向のパラメータ更新を形作るものとして扱う、最適化器を意識したオンラインデータ選択の枠組みを提案する。
- 本手法では、オンライン選択を、2次のターゲット効用に結び付いた更新整合(update-matching)問題として定式化し、選ばれるサブセットがサンプル間の相互作用や冗長性を考慮する必要があることを強調する。
- 長い文脈を扱う実運用向けLLMにこれを適用するために、「まずフィルタし次に重み付けする」二段階のFilter-then-Weightアルゴリズムと、因数分解された外積勾配表現、最適化された行列計算を導入する。
- 実験結果では、同一のデータ予算のもとで、既存のオンラインデータ選択のベースラインと比べて収束および下流タスク性能が一貫して改善することが示される。




