敵対的な勾配摂動による分散学習

arXiv cs.LG / 2026/5/6

💬 オピニオンModels & Research

要点

  • 本論文は、クライアントが真の勾配から距離制約の範囲で任意に変えられた(敵対的に摂動された)勾配を返す状況での分散学習を扱います。
  • 凸かつL-滑らかな最適化設定において、そうした最悪ケースの勾配操作があっても達成可能な最小のサブ最適性(最適化における過剰誤差)を解析します。
  • さらに、所望のサブ最適性ギャップを保証するために必要なサーバクエリ数(問い合わせ回数)も、敵対的摂動を前提に特徴づけます。
  • 著者らは、サブ最適性ギャップとクエリ複雑性の両面で「タイトな(厳密な)実現可能性の閾値」を示し、それらを満たすことを保証するアルゴリズムを提示します。
  • 総じて本研究は、プライバシー目的や改ざんの影響で生じる勾配誤差が「有界であるが任意」であるとき、分散最適化がどれほど頑健になり得るかの理論的指針を与えます。