AI Navigate

会話エージェントへユーザー向けプライバシーツールを統合することによる文脈内プライバシー学習の調査

arXiv cs.AI / 2026/3/23

💬 オピニオンTools & Practical UsageModels & Research

要点

  • 本研究は、ChatGPT類似の対話エージェントにその場のプライバシー通知パネルを統合することによって、文脈内での体験学習を調査し、ユーザーが機密情報を保護するのを支援する。
  • プライバシーパネルの有無によるユーザーの相互作用を、2つのタスクセッションにまたがって比較し、学習とエンゲージメントを評価する。
  • 結果は、タスクの前後でのユーザーのプライバシー認識の変化を議論し、ユーザー主導の保護を促進する、あるいは妨げるインターフェース設計の特徴を特定する。
  • 本研究は、プライバシー学習とプライバシー保護におけるユーザーの関与を促進するための、対話型エージェントにおけるユーザー向けプライバシーツール設計の今後の方向性を概説する。

Abstract

Supporting users in protecting sensitive information when using conversational agents (CAs) is crucial, as users may undervalue privacy protection due to outdated, partial, or inaccurate knowledge about privacy in CAs. Although privacy knowledge can be developed through standalone resources, it may not readily translate into practice and may remain detached from real-time contexts of use. In this study, we investigate in-context, experiential learning by examining how interactions with privacy tools during chatbot use enhance users' privacy learning. We also explore interface design features that facilitate engagement with these tools and learning about privacy by simulating ChatGPT's interface which we integrated with a just-in-time privacy notice panel. The panel intercepts messages containing sensitive information, warns users about potential sensitivity, offers protective actions, and provides FAQs about privacy in CAs. Participants used versions of the chatbot with and without the privacy panel across two task sessions designed to approximate realistic chatbot use. We qualitatively analyzed participants' pre- and post-test survey responses and think-aloud transcripts and describe findings related to (a) participants' perceptions of privacy before and after the task sessions and (b) interface design features that supported or hindered user-led protection of sensitive information. Finally, we discuss future directions for designing user-facing privacy tools in CAs that promote privacy learning and user engagement in protecting privacy in CAs.