インスタンス最適な確率的凸最適化:サンプル平均法およびロバスト確率近似を改善できるのか?
arXiv stat.ML / 2026/3/27
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文は、加法ノイズと乗法ノイズの両方を付加する確率オラクルのもとで、制約なしの確率的凸最適化を解析し、これをオペレーションズ・リサーチ、信号処理、機械学習にわたる代表的な問題として位置づける。
- サンプル平均近似やロバスト/平均化確率近似といった一般的な手法が、有限サンプル性能において劣った、しかも場合によっては任意に悪い結果をもたらし得ることを示す。
- 著者らは、同じサンプルサイズを用いながら、これらのベースラインよりも大幅に優れた性能を達成する分散低減戦略VISORを導入する。
- 理論結果として、有限サンプルにおける情報理論的な局所ミニマックス下界、およびあらゆる推定器の性能を制限するもののインスタンス依存的な特徴付けが含まれる。
- 加速版VISORは、対数因子の範囲でインスタンス最適であることが示され、一般化線形モデル—とりわけ線形回帰—への応用により、確率的手法における、非漸近的でインスタンス依存の汎化誤差境界が改善される。



