要旨: 大規模言語モデルの利用が拡大するにつれ、プライバシーを保護した形でテキストデータを共有することへの関心が高まっている。主要な研究の流れの1つは、ローカル差分プライバシー(LDP)のもとでのテキスト書き換えによってこの課題に取り組むものである。そこでは、形式的なプライバシー保証を伴って、公開前に入力テキストが局所的に秘匿化(obfuscate)される。これらの保証は通常、最悪時のプライバシー損失を上から抑えるパラメータ epsilon によって表現される。しかし、公称(nominal)の epsilon 値はしばしば解釈や、メカニズム間での比較が難しい。本研究では、LDP のもとでテキスト書き換えメカニズム間における経験的な較正(calibrate)方法を調査する。提案手法 TeDA は、仮説検定(hypothesis-testing)の枠組みによって較正を定式化し、表層空間と埋め込み(embedding)空間の両方においてテキスト識別可能性(distinguishability)監査を具体化することで、秘匿化されたテキストからの識別不能性を経験的に評価できるようにする。この較正をいくつかの代表的なメカニズムに適用したところ、同様の公称 epsilon の上界が、識別可能性の異なる水準を意味し得ることを示した。したがって、経験的較正は、プライバシー—有用性のトレードオフを評価する際の、より比較可能な基盤を提供するだけでなく、実環境の LDP テキスト書き換え配備におけるメカニズムの比較・分析に役立つ実用的な手段でもある。
理論的限界を超えて:ローカル差分プライバシー下でのテキスト書き換えに対する実証的プライバシー損失キャリブレーション
arXiv cs.CL / 2026/3/25
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文は、テキスト書き換えにおけるローカル差分プライバシー(LDP)のプライバシー保証(公称ε)を解釈し比較する方法を扱い、最悪ケースの上界に頼るのではなく、実際のプライバシー損失を実証的に測定することで行う。
- 仮説検定の枠組みを用い、表層(テキスト)空間と埋め込み(表現)空間の両方で識別可能性の監査(distinguishability audits)を実行するキャリブレーション手法TeDAを提案する。
- 著者らは、公称εが類似していても、識別可能性の結果は大きく異なり得ることを示し、εだけでは一貫したプライバシー・ユーティリティ比較の基盤になり得ないことを示唆する。
- 本研究は、実世界のLDPテキスト書き換え導入におけるプライバシーと有用性のトレードオフを評価・比較するための実用的アプローチとして、実証的キャリブレーションを位置付ける。
