異質なデータ下での効率的フェデレーテッドラーニングのためのサブスペース最適化

arXiv cs.LG / 2026/4/29

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、通信・メモリ・計算が制約され、クライアント間データが非IIDであることによって学習がドリフトし安定性と性能が劣化しやすい、大規模モデル時代のフェデレーテッドラーニングの課題に取り組みます。
  • 提案手法はサブスペース最適化(SSF)で、低次元のサブスペース上で異質性補正付きの最適化を行い、射影された量だけを用いることでオーバーヘッドを削減します。
  • SSFは、アクティブなサブスペースが切り替わる際に残差成分を保持する「バックフィル型」の更新によって、制御情報をフル次元の形で維持しようとします。
  • 滑らかさおよび有界分散の仮定のもとで、SSFは Ō(1/T + 1/√(NKT)) のオーダーで非漸近的な収束率を達成します。
  • 実験では、異質データにおいてSSFが既存手法に対して精度と効率のトレードオフ面で良好であることが示されています。

Abstract

フェデレーテッドラーニングは、通信・メモリ・計算のいずれもが乏しい大規模モデルの領域でますます運用されるようになっている。一般に、非IIDのクライアントデータはドリフトを誘発し、局所学習の安定性と性能を劣化させる。SCAFFOLDのような既存の対策は、この課題に対処するために異質性補正(heterogeneity-correction)の仕組みを導入するが、通信およびメモリの大きな追加オーバーヘッドを伴う。本論文では、フェデレーテッドラーニングのための部分空間最適化手法(SSF)を提案する。SSFは、射影された量のみを用いて低次元の部分空間上で異質性補正付きの最適化を行い、さらに、活性な部分空間が変化する際に残差成分を保持する、バックフィル(backfill)方式の更新により、全次元の制御情報を保持する。通常の滑らかさおよび有界分散の仮定の下で、SSFは非漸近的な収束率を \widetilde{\mathcal{O}}(1/T+1/\sqrt{NKT}) のオーダーで達成する。実験では、異質なデータにおいて良好な精度—効率のトレードオフが示される。