要旨: 微調整は、事前学習済みモデルを新しいタスクに適応させるために広く用いられている戦略ですが、可変選択を伴う高次元の非パラメトリック設定における、その方法論および理論的特性は、まだ十分に開発されていません。本論文では、共変量シフトおよび事後(ポステリア)シフトの両方を同時に扱う、高次元非パラメトリック回帰における可変選択のための転移学習フレームワークである、微調整因子拡張ニューラルラッソ(FAN-Lasso)を導入します。高次元の従属的な共変量を管理するために低ランク因子構造を用い、目的関数を、凍結したソース関数と他の変数の変換として表す、新しい残差微調整分解を提案します。これにより、転移学習と非パラメトリックな可変選択を実現します。ソース予測器から得られるこの拡張特徴は、ターゲット領域への知識移転を可能にし、そこでのモデル複雑性を低減します。さらに、微調整FAN-Lassoに対するミニマックス最適な超過リスクの上界を導出し、相対的なサンプルサイズと関数の複雑性という観点から、微調整が単一タスク学習に対して統計的加速をもたらすための、正確な条件を特徴付けます。提案フレームワークは、パラメータ効率の良い微調整手法に対する理論的な視点も提供します。多様な共変量シフトおよび事後シフトの状況にわたる大規模な数値実験により、微調整FAN-Lassoが標準的なベースラインを一貫して上回り、過酷なターゲットのサンプルサイズ制約下でもほぼオラクル性能を達成することが示され、導出されたレートが経験的に検証されます。
不均一な環境に対するファインチューニング付き因子拡張ニューラルラッソ
arXiv stat.ML / 2026/4/15
💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本論文は、共変量シフトおよび事後(ポステリア)シフトの両方の下で、変数選択を伴う高次元のノンパラメトリック回帰に対して、事前に学習した要素をファインチューニングする転移学習フレームワーク「FAN-Lasso」を提案する。
- 依存を持つ高次元共変量を扱うための低ランク因子構造を導入し、目標関数を「凍結したソース関数の変換」に加えて追加項で表す残差のファインチューニング分解を提示する。
- 著者らは、相対的なサンプルサイズおよび関数の複雑性に関する指標に基づき、ファインチューニングが単一タスク学習よりも統計的加速をもたらす状況を特定するためのミニマックス最適な超過リスク上界を導出する。
- 本フレームワークは、パラメータ効率の良いファインチューニング手法を理論的に捉えるレンズとして位置づけられ、提案アプローチをより広いファインチューニング効率の観点につなげる。
- 複数のシフト状況にわたる大規模な実験により、FAN-Lassoが標準的ベースラインを上回り、目標領域のサンプル数が極端に限られる場合でもほぼオラクル性能を達成することを示す。
