連合学習におけるパーソナライズされた緩和初期化の再考:整合性と汎化
arXiv cs.LG / 2026/4/15
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文は、連合学習における「クライアント・ドリフト」問題に取り組み、異質なローカル最適解が性能を損なう仕組みに関する理論的理解が不十分であると論じる。
- 各ローカル学習段階の開始時に「パーソナライズされた緩和初期化」を適用する効率的な連合アルゴリズムである FedInit を提案する。この方法では、最新のローカル状態とは反対方向へローカル状態を現在のグローバルモデルから動かすことで初期化する。
- 著者らは過剰リスク解析(excess risk analysis)を発展させ、局所的な不整合が最適化誤差というよりも、主に汎化誤差の上界に影響することを示す。
- 実験により、FedInit は追加の学習や通信オーバーヘッドなしで、先進的な FL ベンチマークと同等の性能を達成できることが示され、また本アプローチは他の段階的パーソナライズ手法にも統合可能である。
- さらに本研究では、発散(divergence)項による解析も導入し、連合学習の設定におけるクライアント不整合とテスト誤差の挙動を結び付ける。




