最適レートを実現する高次元・プライベート線形回帰
arXiv stat.ML / 2026/4/28
💬 オピニオンModels & Research
要点
- 本論文は、訓練サンプル数 n と入力次元 d が d/n → γ の比で同程度に増える高次元のランダムデータ領域における、差分プライバシー(DP)付き線形回帰を扱う。
- ρ²/2 のゼロ集中DPの下で、ワンパスのDP勾配降下(DP-GD)アルゴリズム群を対象にし、軌道の決定論的同等物を ODE(常微分方程式)系を通じて導出する。
- さらに、実務上の性能改善として知られる「1サンプル勾配の典型的なノルムより小さな勾配クリッピング定数」を設定したときに、収束やリスクにどう影響するかを定量化する。
- よく条件づけられたデータでは、適切にクリッピング定数と学習率を選ぶことで、非漸近リスク O(γ + γ²/ρ²) を達成でき、このレートがミニマックス最適であることを示す。
- 共分散スペクトルがパワーロー状に減衰する、条件の悪い場合にはリスクが γ に対して別の(パワー的な)スケーリング則に従い、プライバシー・パラメータ ρ によって指数が変化することを明らかにする。加えて、攻めた勾配クリッピングや学習率減衰スケジュールの利点も強調する。




