Abstract
差分プライバシー(DP)は、データ解析アルゴリズムをランダム化することで得られ、その結果として有用性(utility)とプライバシーの間に必ずトレードオフが生じます。多くのDPメカニズムは、次の2つの基礎となる道具のいずれかに基づいて構築されています:ラプラスノイズ機構とガウス加法雑音機構です。本稿では、一般化ガウス(Generalized Gaussian; GG)機構を調べることでアルゴリズムの探索空間を拡張します。GG機構では、加法雑音項 x を、その確率が e^{-\frac{| x |}{\sigma}^{\beta} } に比例するようにサンプリングします(ただし
\beta \geq 1、GG_{\beta, \sigma}(f,D) と記す)。ラプラス機構とガウス機構は、それぞれ
\beta=1 および
\beta=2 における GG の特別な場合です。
我々は、GGファミリー全体が差分プライバシーを満たすことを証明し、さらにPRV accountantを拡張して、これらのメカニズムに対するプライバシー損失の計算をサポートします。その後、GG機構を2つの典型的なプライベート学習パイプライン、PATEおよびDP-SGDに実装します。実験的に、計算上実現可能な
\beta の値の範囲で、PATEとDP-SGDをGG機構とともに調査します:DP-SGDでは
\beta \in [1,2]、PATEでは
\beta \in [1,4] です。これら両方のメカニズムにおいて、計算可能な領域の中では
\beta=2(ガウス)が他の値と同等、またはそれ以上の性能を示すことが分かります。これは、DP学習におけるガウス機構の広範な採用を正当化するものです。