要旨: フェデレーテッドラーニング(FL)は、分散した複数のクライアントがローカルデータのプライバシーを保護しつつ共同で機械学習モデルを訓練できるようにする仕組みであり、医療、金融、モビリティ、スマートシティシステムなどの応用に魅力をもたらします。しかし、FLには統計的異質性やクライアントの参加の不均衡といった、収束性とモデル品質を低下させる可能性のある課題がいくつかあります。本研究では、FedBSとFedProxの補完的なアイデアを組み合わせたFLアルゴリズムFedPBSを提案します。FedPBSは、クライアントのリソースに合わせてバッチサイズを動的に適応させ、均衡でスケーラブルな参加を支援し、また小さなバッチを扱うクライアントには近接補正を選択的に適用し、局所更新を安定化させ、グローバルモデルとの発散を減らします。CIFAR-10やUCI-HARなどのベンチマークデータセットを、高度に非 IID の設定の下で行った実験は、FedPBSがFedBS、FedGA、MOON、FedProxを含む最先端手法を一貫して上回ることを示しています。結果は、データの異質性が極めて高い状況下で堅牢な性能向上を示し、滑らかな損失曲線がさまざまなフェデレーテッド環境において安定した収束を示しています。FedPBSは、厳しい非 IID 条件下でもUCI-HARおよびCIFAR-10における最先端のフェデレーテッドラーニングのベースラインを一貫して上回り、安定で信頼性の高い収束を維持します。
FedPBS:非 IID データに対する頑健な個別化トレーニングのための近接-バランス型スケーリングフェデレーテッドラーニングモデル
arXiv cs.LG / 2026/3/17
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- FedPBS は、新しいフェデレーテッドラーニングアルゴリズムで、FedBS と FedProx のアイデアを組み合わせ、統計的異質性と高度に非 IID データにおけるクライアント参加の不均衡を解決します。
- 各クライアントのリソースに合わせてバッチサイズを動的に適応させ、バランスの取れたスケーラブルな参加を実現します。そして、小さなバッチを用いるクライアントには近接補正を適用して局所更新を安定化させ、グローバルモデルからの発散を抑えます。
- CIFAR-10 および UCI-HAR を用いた、厳しい非 IID 設定での実験において、FedPBS は FedBS、FedGA、MOON、FedProx などの最先端のベースラインを一貫して上回り、損失曲線が滑らかで安定した収束を示します。
- この結果は、FedPBS が多様なフェデレーテッド環境全体で頑健な性能向上を提供することを示唆しており、実世界のデプロイメントにおける頑健な個別化トレーニングの可能性を強調しています。