FedSEA:分散連合型オンライン学習における並列化の恩恵の実現
arXiv cs.LG / 2026/4/22
📰 ニュースDeveloper Stack & InfrastructureModels & Research
要点
- 本論文は、標準的なOFLの敵対者仮定が並列化の利点を妨げがちであり、統計的変動の起源を十分に捉えられていない点を踏まえて、オンライン連合学習(OFL)を扱う。
- 損失関数はクライアント間・時間を通じて固定する一方で、SEA(Stochastically Extended Adversary)モデルでは敵対者が各時刻ごとに各クライアントのデータ分布を独立かつ動的に選択できるように拡張する。
- 2OFLアルゴリズムを提案し、クライアント側ではオンライン確率的勾配降下法を用い、サーバ側では定期的にグローバル集約を行う。
- なめらか・凸損失に対してO(\u221aT)のグローバルネットワーク損失(regret)上界、なめらか・強凸損失に対してO(log T)の上界をそれぞれ証明する。
- 分析により空間的(クライアント間)および時間的(時系列)ヘテロジニティの個別の影響を定量化し、時間変動が軽微であるときには並列化によってregretが改善し得る条件を示し、従来の悲観的な最悪ケース結果を改善する。




