OptEMA: ゼロノイズ最適性を備えた確率的最適化のための適応型指数移動平均

arXiv cs.LG / 2026/3/11

Ideas & Deep AnalysisModels & Research

要点

  • 本論文では、Adamスタイルのオプティマイザの限界に特に対応した、確率的最適化を改善することを目的とした適応型指数移動平均手法OptEMAを提案しています。
  • OptEMAには、一次モーメントと二次モーメントに対する適応減衰率の適用方法が異なる二つのバリアント、OptEMA-MとOptEMA-Vが存在し、閉ループでリプシッツ非依存のパラメータ化を可能にします。
  • 本手法は、有界性条件やリプシッツ定数の事前知識に依存せず、標準的なSGDの仮定のもとで厳密な収束保証を達成します。
  • OptEMAはノイズレベルに効果的に適応し、ノイズあり・ゼロノイズの両レジームでほぼ最適な収束速度を実現し、決定論的の場合における手動でのハイパーパラメータ調整の必要性を排除します。
  • この開発は、機械学習タスクにおける最適化性能に影響を与え、Adam類似オプティマイザを用いるモデルの訓練効率と頑健性の向上に寄与する可能性があります。

計算機科学 > 機械学習

arXiv:2603.09923 (cs)
[2026年3月10日 提出]

題目:OptEMA: Adaptive Exponential Moving Average for Stochastic Optimization with Zero-Noise Optimality

OptEMA: Adaptive Exponential Moving Average for Stochastic Optimization with Zero-Noise Optimality という題目の論文をPDFで表示(著者: Ganzhao Yuan)
PDFを表示
要旨:指数移動平均(EMA)は、Adamのような広く用いられている最適化手法の中核です。しかし、Adam型手法に関する既存の理論解析には注目すべき制限があります。それは、零ノイズ領域で保証が最適でないままになり得ること、(有界勾配や目的関数ギャップなど)厳しい有界性条件に依存していること、一定またはオープンループのステップサイズを用いていること、あるいはLipschitz定数の事前知識を要求することです。こうしたボトルネックを解消するために、我々はOptEMAを提案し、2つの新しい変種を解析します。すなわち、OptEMA-Mは、2次の減衰を固定したまま、1次モーメントに適応的で減少するEMA係数を適用するものであり、OptEMA-Vはこれらの役割を入れ替えるものです。決定的に重要なのは、OptEMAがクローズドループであり、さらに「パラメータ化のためにLipschitz定数を必要としない」意味でLipschitzフリーであることです。つまり、その有効ステップサイズは軌道(トラジェクトリ)依存であり、Lipschitz定数をパラメータ化に用いません。標準的な確率的勾配降下法(SGD)の仮定、すなわち滑らかさ、下に有界な目的関数、分散が有界で勾配が偏りを持たないことの下で、厳密な収束保証を確立します。両変種は、平均勾配ノルムに対して、$~\mathcal{O}(T^{-1/2}+\sigma^{1/2} T^{-1/4})$ というノイズに適応した収束率を達成します。ここで$~\sigma$はノイズレベルです。特に、$~\sigma=0$となる零ノイズ領域では、我々の評価は、手動でハイパーパラメータを再調整することなく、ほぼ最適な決定論的収束率 $~\mathcal{O}(T^{-1/2})$ に帰着します。
分野: 機械学習 (cs.LG); 数値解析 (math.NA); 最適化と制御 (math.OC)
引用: arXiv:2603.09923 [cs.LG]
  (または、この版については arXiv:2603.09923v1 [cs.LG])
  https://doi.org/10.48550/arXiv.2603.09923
詳しく学ぶためにフォーカス
DataCite による arXiv 発行 DOI

投稿履歴

差出人: Ganzhao Yuan [メールを見る]
[v1] 2026年3月10日(火) 17:19:54 UTC (114 KB)
フルテキストへのリンク:

論文へのアクセス:

    OptEMA: Adaptive Exponential Moving Average for Stochastic Optimization with Zero-Noise Optimality という題目の論文をPDFで表示(著者: Ganzhao Yuan)
  • PDFを表示
  • TeXソース
現在の閲覧コンテキスト:
cs.LG
< 前   |   次 >
返却形式: {"translated": "翻訳されたHTML"}
次の条件で閲覧するよう切り替え:
BibTeXの引用をエクスポート 読み込み中...

BibTeX形式の引用

×
提供データ:

ブックマーク

BibSonomyロゴ Redditロゴ
書誌ツール

書誌情報と引用ツール

書誌エクスプローラーの切り替え
書誌エクスプローラー (エクスプローラーとは?)
Connected Papersの切り替え
Connected Papers (Connected Papersとは?)
Litmapsの切り替え
Litmaps (Litmapsとは?)
scite.aiの切り替え
scite Smart Citations (Smart Citationsとは?)
コード、データ、メディア

本記事に関連付けられたコード、データ、メディア

alphaXivの切り替え
alphaXiv (alphaXivとは?)
コードへのリンクの切り替え
論文向け CatalyzeX コードファインダー (CatalyzeXとは?)
DagsHub トグル
DagsHub (DagsHubとは?)
GotitPub トグル
Gotit.pub (GotitPubとは?)
Huggingface トグル
Hugging Face (Huggingfaceとは?)
コードへのリンク トグル
Papers with Code (Papers with Codeとは?)
ScienceCast トグル
ScienceCast (ScienceCastとは?)
デモ

デモ

Replicate トグル
Replicate (Replicateとは?)
Spaces トグル
Hugging Face Spaces (Spacesとは?)
Spaces トグル
TXYZ.AI (TXYZ.AIとは?)
関連論文

レコメンダーと検索ツール

Influence Flowerへのリンク
Influence Flower (Influence Flowersとは?)
Coreレコメンダートグル
CORE Recommender (COREとは?)
IArxiv レコメンダーの切り替え
IArxiv レコメンダー (IArxiv とは?)
arXivLabs について

arXivLabs:コミュニティの協力者とともに行う実験的プロジェクト

arXivLabs は、協力者が当サイト上で新しい arXiv の機能を直接開発し、共有できるようにするための枠組みです。

arXivLabs に取り組む個人および組織は、公開性、コミュニティ、卓越性、ユーザーデータのプライバシーという当社の価値観を受け入れ、それを実践してきました。arXiv はこれらの価値観に取り組んでおり、それらを遵守するパートナーとのみ連携します。

arXiv のコミュニティに価値を加えるプロジェクトのアイデアはありますか? arXivLabs について詳しく知る