アグリゲーション重みのオンライン更新を可能にするハイパーグラディエントベースのフェデレーテッドラーニング

arXiv cs.LG / 2026/5/4

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • この論文では、クライアントのデータ分布の不均一性や通信環境の変動が起きやすいモバイル/IoT環境を想定したフェデレーテッドラーニング手法「FedHAW」を提案しています。
  • FedHAWは、アグリゲーション重みに対する目的関数の勾配であるハイパーグラディエントを用いて、集約重みをオンラインで更新しますが、その計算コストは低いとされています。
  • シミュレーション結果では、不均一なクライアント環境において高い一般化性能が得られることが示されています。
  • さらに、通信エラーに対して高い頑健性を示しており、フェデレーテッド学習で回線が不安定・ノイジーでも学習を行いやすいことが示唆されます。

要旨: モバイルおよびインターネット・オブ・シングス(IoT)デバイスを用いたフェデレーテッドラーニングでは、クライアントのデータ分布の異質性に対応できることに加えて、変動する通信環境への高い適応力も必要となる。そこで本研究では、集約重みの更新をハイパーグラディエントに基づいて行うフェデレーテッドラーニング手法であるFedHAW(Federated Learning with Hypergradient-based update of Aggregation Weights)を提案する。FedHAWは、集約重みのオンライン更新を実装する。FedHAWは、目的関数を重みに関して微分したもの(ハイパーグラディエント)を用いて集約重みを更新し、これは計算オーバーヘッドを低く抑えて算出できる。シミュレーション結果により、提案手法が異質な環境において高い汎化性能を示し、さらに通信エラーに対して高い頑健性を有することが示された。