無料ランチ結果の拡張による、改良された差分プライバシー線形回帰

arXiv cs.LG / 2026/4/15

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、加除型差分プライバシー(DP)モデルのもとで線形回帰をプライバシー保護しながら行う必要性が高まっていることに着目し、回帰に関してデータセットサイズに依存する量をプライベートに推定することに焦点を当てている。
  • 先行研究の「無料ランチ(free lunch)」結果を土台に、区間[0,1]で有界な変数および関数に対する、改良された多次元シンプレックス変換を用いて手法を拡張している。
  • 著者らは、この変換によって、通常の最小二乗法(OLS)によるプライベートな単純線形回帰に必要な十分統計量を、より良くプライベートに推定できることを示している。
  • 提案手法が先行手法よりも優れていることについて、解析的および数値的な証拠を提示しており、DP制約下での精度が高いことを示している。
  • 変換の枠組みは、差分プライバシーに基づく多項式回帰など、さまざまな設定に幅広く適用可能であるとして提示されている。

要旨: データプライバシー規制が強化され、統計モデルがますますセンシティブな人由来データに展開されるにつれて、プライバシーを保護する線形回帰は重要な必須要件となっています。add-remove DPモデルに関して、Kuleszaら(2024)およびFitzsimonsら(2024)は独立に、線形回帰にとって重要な統計量であるデータセットのサイズが、「無料で」プライベートに推定できることを示しています。これは、有界変数の単体(simplex)変換と、変換後の変数に対するプライベートな和のクエリによって実現されます。本研究では、この無料ランチの結果を、多次元の単体変換を変数および関数に対して慎重に設計することで拡張し、これらが区間[0,1]において有界である場合を扱います。これらの変換を適用することで、通常の最小二乗法(ordinary least squares)に基づくプライベートな単純線形回帰に必要な十分統計量の推定を改善できることを示します。提案手法の優位性を実証するために、解析結果と数値結果の両方を提示します。提案する変換は一般的な適用可能性を持ち、差分プライバシーを備えた多項式回帰へ容易に適応できます。