GPをループから外す(Taking the GP Out of the Loop)

arXiv stat.ML / 2026/5/6

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • ベイズ最適化は、評価が安価で観測数が多い問題へと適用が広がっているが、ガウス過程(GP)サロゲートはハイパーパラメータ推定が重いため大きな計算ボトルネックになる。
  • 本論文では、K近傍観測から関数値と不確実性(エピステミックおよびアレアトリック)を推定する軽量なサロゲートとしてEpistemic Nearest Neighbors(ENN)を提案し、フィッティングと獲得の双方でO(N)スケーリングを実現する。
  • さらに、TuRBO-ENNではTuRBOのGPサロゲートをENNに置き換え、獲得関数としてThompsonサンプリングの代わりにUCB(μ(x)+σ(x))を用いる。
  • ノイズなしの特殊ケースでは、予測される平均と不確実性に対する非支配ソートにより、フィッティング自体を省略できる。
  • 実験では、TuRBO-ENNが最大50,000観測までの範囲でTuRBOに比べ提案時間(フィッティング+獲得)を1〜2桁削減できることを示している。

Abstract

ベイズ最適化(BO)は伝統的に、関数評価が高価であるため観測が少ないブラックボックス問題を解いてきました。しかし近年では、関数評価がより安価で観測が豊富な問題にBOを適用することへの関心が高まっています。この状況では、多数の観測 N へのスケーリングがガウス過程(GP)サロゲートによって妨げられます。具体的には、GPのハイパーパラメータ推定は \mathcal{O}(N^3) でスケールし(近年の実装では概ね \mathcal{O}(N^2) へと低減されています)、さらにそれがBOの各反復ごとに繰り返されます。多くの手法は獲得(acquisition)時点でのスケーリングを改善しますが、ハイパーパラメータ推定のスケールは依然として不十分であり、それがボトルネックになります。私たちは、GPの軽量な代替としてエピステミック最近傍(Epistemic Nearest Neighbors, ENN)を提案します。ENNは、K近傍の観測から関数値と不確実性(エピステミックおよびアレアトリック)を推定します。ENNは、推定と獲得の両方で \mathcal{O}(N) でスケールします。私たちのBO手法であるTuRBO-ENNは、TuRBOにおけるGPサロゲートをENNに置き換え、さらにThompsonサンプリングによる獲得関数を \mathrm{UCB} = \mu(x) + \sigma(x) に置き換えます。ノイズのない問題という特別な場合には、 \mathrm{UCB} \mu(x) \sigma(x) に対する非支配ソートで置き換えることで、推定をまったく省略できます。経験的に、TuRBO-ENNは、最大50,000の観測において、TuRBOと比べて提案時間(すなわち推定時間+獲得時間)を1〜2桁のオーダーで削減することを示します。