AI Navigate

人間中心のLLMプライバシー監査: 発見と摩擦

arXiv cs.CL / 2026/3/13

💬 オピニオンIdeas & Deep AnalysisTools & Practical UsageModels & Research

要点

  • 本研究は、LLMs が訓練データやユーザーとの対話から個人に関する情報を表出したり推測したりする可能性を調査し、プライバシーリスクと名前ベースの関連を検査する実用的なツールの不足を浮き彫りにしています。
  • 著者らは、名前がモデル出力とどのように関連づくかをユーザーが探り、制御するのを支援する、ブラウザベースの自己監査ツール LMP2 を紹介します。
  • 総計458名の参加者を対象とした2つのユーザ研究で、GPT-4o は日常の人々の50の特徴のうち11個を少なくとも60%の精度で予測し、個人の連想の部分的な予測可能性を示しています。
  • 本研究は、人間中心のLLMプライバシー監査における9つの摩擦を特定し、確率的で文脈依存の出力の中でこのような評価の信頼性と比較可能性を改善するための提言を提示します。
大規模言語モデル(LLMs)は、巨大な学習コーパスとユーザーの対話から統計的連想を学習し、展開されたシステムは個人に関する情報を表出したり推測したりする可能性がある。しかし、人々は自分の名前とモデルが何を関連づけているのかを検査する実用的な手段を欠いている。我々は進行中の研究からの中間的な所見を報告し、LMP2を導入する。これはブラウザベースの自己監査ツールである。2つのユーザ研究(総計 $N_{total}{=}458$)において、GPT-4o は日常の人々の50の特徴のうち11個を、少なくとも $60 ext%$ の精度で予測し、参加者はすべての出力がプライバシー侵害とみなしているわけではないが、LLM生成の連想を制御したいと考えていると報告している。探査手法を検証するため、公開人物と不存在名に対して8つのLLMを評価し、安定した名前条件付き連想とモデルデフォルトとの間に明確な分離が観察された。我々の発見は、出力が確率的で文脈依存的で、喚起を通じてユーザーが介在する場合、モデルと個人の連想が含むものさえも過不足に規定されていないことを示し、検証や比較が難しい探査手法と指標の作成に依存していることを露呈させる。信頼性が高く、実践的な人間中心のLLMプライバシー監査へと移行するために、我々は研究で浮上した九つの摩擦を特定し、今後の研究と人間中心のLLMプライバシー監査の設計に関する提言を提示する。