ノイズを含むサンプルからの反復的な改良によるニューラル・グローバル最適化

arXiv cs.LG / 2026/4/7

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、ベイズ最適化などの手法に共通する局所最小値問題を回避することを目的とした、ノイズを含むブラックボックス関数のグローバル最適化のためのニューラル手法を提案する。
  • このモデルは、ノイズを含む関数サンプルとスプライン表現を用いて、勾配情報や複数回のリスタートを必要とせずに、初期推定を真のグローバル最小へ向けて反復的に改良する。
  • 既知のグローバル最小値を持つ(全探索により)合成的にランダム生成された関数で学習し、多峰性のベンチマークで検証する。
  • 実験結果では、スプライン初期化に対して平均誤差が8.05%対36.24%であり、さらにテストケースの72%が<10%の誤差を達成したことから、単に曲線を当てはめるのではなく最適化の挙動を学習していることが示唆される。
  • アーキテクチャには、複数の入力モダリティ(関数値、微分、スプライン係数)に加えて、反復的な位置更新を組み込み、困難な地形に対する頑健性を高める。