要旨: 本論文では、初めて、局所データセットを共有しない分散学習において集中型の性能が達成可能であることが示される。具体的には、クライアントが相対エントロピー正則化による経験的リスク最小化(ERM-RER)の学習フレームワークを採用し、クライアント間のフォワード・バックワード通信が確立されるとき、全データセットにアクセスする集中型ERM-RERと同等の性能を達成するには、各クライアントが局所的に得たギブズ測度を共有すれば十分であることがわかる。中核となる考え方は、クライアント~kによって生成されたギブズ測度が、クライアント~k+1における基準測度として用いられる点にある。これは、基準測度を通じて事前情報を符号化するための、原理に基づいた方法を実効的に確立する。特に、分散環境で集中型の性能を達成するには、局所サンプルサイズに応じた正則化係数の特定のスケーリングが必要となる。全体として、この結果は、モデル集合にわたる基準測度を介して局所の帰納バイアスを共有することへと協調戦略を転換する、新たな分散学習パラダイムへの道を切り開く。
ギブスアルゴリズムによる、中央集権的な性能保証を備えた分散機械学習
arXiv stat.ML / 2026/4/23
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- この論文は、各クライアントのローカルデータを共有せずとも、ギブス測度をクライアント間で共有することで分散学習が中央集権型の性能に到達できることを示しています。
- ERM-RER(相対エントロピー正則化付き経験的リスク最小化)フレームワークと、クライアント間のフォワード・バックワード通信を前提にすると、ローカルで得られたギブス測度を共有するだけで、中央集権型ERM-RERと同等の性能が得られるとされています。
- 各クライアントが生成したギブス測度を次のクライアントの参照測度として用いることで、参照測度を通じた事前知識の符号化を原理的に実現します。
- 分散設定で中央集権レベルの性能を達成するには、ローカルのサンプルサイズに応じて正則化因子を適切にスケーリングする必要があると述べています。
- この結果は、データ共有をやめて、参照測度を通じてモデル集合上のローカルな帰納的バイアスを共有する形へと、分散学習の協調戦略を転換し得る新しいパラダイムを示唆しています。