概要: フェデレーテッドラーニングは分散データを解析するための強力な枠組みとして登場してきたが、依然として2つの課題が重要である。すなわち、サイト間の異質性と、ローカルデータのプライバシーである。本論文では、これら2つの課題を、フェデレーテッド転移学習の枠組みの中で同時に扱う。目的は、プライバシー制約を遵守しつつ、多数の異質なソースデータセットからの情報を活用することで、ターゲットデータセット上での学習を向上させることである。各データセットに対して、信頼できる中央サーバを仮定せずにプライバシー保証を提供する、フェデレーテッド差分プライバシーの概念を厳密に定式化する。本プライバシーモデルのもとで、4つの統計的問題、すなわち、一変量平均の推定、低次元線形回帰、高次元線形回帰、M推定を研究する。ミニマックス率を調べ、プライバシーに伴うコストを定量化することで、フェデレーテッド差分プライバシーが、確立された差分プライバシーのローカルモデルとセントラルモデルの中間に位置するプライバシーモデルであることを示す。本解析はデータの異質性とプライバシーを考慮し、各要因に関連する基本的なコストと、フェデレーテッドラーニングにおける知識転移の便益を明らかにする。
差分プライバシーを用いたフェデレーテッド・トランスファーラーニング
arXiv stat.ML / 2026/4/7
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文は、サイト間のデータ不均一性とローカルデータセットのプライバシー保護の両方に対処するフェデレーテッド・トランスファーラーニングの枠組みを提案する。
- 著者らは「フェデレーテッド差分プライバシー」を形式化し、信頼できる中央サーバに依存せずにデータセットごとのプライバシー保証を与える。
- さらに、このプライバシーモデルの下で4つの主要な統計タスク(平均推定、低次元/高次元の線形回帰、M推定)を分析し、ミニマックス率を導出する。
- プライバシーと不均一性によって導入されるトレードオフを定量化し、フェデレーテッド差分プライバシーがプライバシー強度の観点でローカル差分プライバシーと中央差分プライバシーの間に位置づくことを示す。
- 結果は、それぞれの要因がもたらす本質的なコストを特徴付けるとともに、フェデレーテッドな状況において知識転移が学習をどのような場合に、どのように改善し得るかを明らかにする。


