敵対的な勾配摂動による分散学習
arXiv cs.LG / 2026/5/6
💬 オピニオンModels & Research
要点
- 本論文は、クライアントが真の勾配から距離制約の範囲で任意に変えられた(敵対的に摂動された)勾配を返す状況での分散学習を扱います。
- 凸かつL-滑らかな最適化設定において、そうした最悪ケースの勾配操作があっても達成可能な最小のサブ最適性(最適化における過剰誤差)を解析します。
- さらに、所望のサブ最適性ギャップを保証するために必要なサーバクエリ数(問い合わせ回数)も、敵対的摂動を前提に特徴づけます。
- 著者らは、サブ最適性ギャップとクエリ複雑性の両面で「タイトな(厳密な)実現可能性の閾値」を示し、それらを満たすことを保証するアルゴリズムを提示します。
- 総じて本研究は、プライバシー目的や改ざんの影響で生じる勾配誤差が「有界であるが任意」であるとき、分散最適化がどれほど頑健になり得るかの理論的指針を与えます。



