ラプラスとガウスを超えて:差分プライバシー付き機械学習のための一般化ガウス機構の探求

arXiv stat.ML / 2026/4/3

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文では、\(\beta\ge1\u007f\) によってパラメータ化された加法ノイズ機構のより広いファミリーとして、差分プライバシーのための一般化ガウス(GG)機構を導入する。ここで、ラプラスノイズとガウスノイズはそれぞれ \(\beta=1\u007f\) および \(\beta=2\u007f\) における特別な場合である。
  • GGファミリー全体が差分プライバシーを満たすことを証明し、これらの機構に対するプライバシー損失を計算するためにPRV accountantを拡張する。
  • 著者らは、PATEとDP-SGDという2つの標準的なプライバシー保護機械学習パイプラインにGGノイズを実装し、各手法について計算可能な範囲のrac{}{ }\(\beta\u007f\) を評価する。
  • 実験結果により、PATEおよびDP-SGDのいずれにおいても、計算可能な領域ではrac{}{ }\(\beta=2\u007f\)(ガウス機構)が他の検討したrac{}{ }\(\beta\u007f\)の値と同等、またはそれを上回る性能を示すことが確認され、実務におけるガウスDPの普及を裏付ける。

Abstract

差分プライバシー(DP)は、データ解析アルゴリズムをランダム化することで得られ、その結果として有用性(utility)とプライバシーの間に必ずトレードオフが生じます。多くのDPメカニズムは、次の2つの基礎となる道具のいずれかに基づいて構築されています:ラプラスノイズ機構とガウス加法雑音機構です。本稿では、一般化ガウス(Generalized Gaussian; GG)機構を調べることでアルゴリズムの探索空間を拡張します。GG機構では、加法雑音項 x を、その確率が e^{-\frac{| x |}{\sigma}^{\beta} } に比例するようにサンプリングします(ただし \beta \geq 1GG_{\beta, \sigma}(f,D) と記す)。ラプラス機構とガウス機構は、それぞれ \beta=1 および \beta=2 における GG の特別な場合です。 我々は、GGファミリー全体が差分プライバシーを満たすことを証明し、さらにPRV accountantを拡張して、これらのメカニズムに対するプライバシー損失の計算をサポートします。その後、GG機構を2つの典型的なプライベート学習パイプライン、PATEおよびDP-SGDに実装します。実験的に、計算上実現可能な \beta の値の範囲で、PATEとDP-SGDをGG機構とともに調査します:DP-SGDでは \beta \in [1,2]、PATEでは \beta \in [1,4] です。これら両方のメカニズムにおいて、計算可能な領域の中では \beta=2(ガウス)が他の値と同等、またはそれ以上の性能を示すことが分かります。これは、DP学習におけるガウス機構の広範な採用を正当化するものです。