LLMは会話履歴から対話エージェント利用者のパーソナリティ特性を推論できるのか?

arXiv cs.CL / 2026/4/23

📰 ニュースSignals & Early TrendsModels & Research

要点

  • 本研究は、LLMベースの対話エージェントとのやり取りから利用者のチャット履歴がパーソナリティ特性という機微情報につながり得るかを検証し、プライバシー上のリスクを評価しています。
  • 668人の参加者による実際のChatGPTログ(62,090件のチャット)を用い、どの種類のデータやインタラクション場面が性格推論を可能にしやすいかを定量化しています。
  • RoBERTa-baseを微調整した分類器でパーソナリティ特性を予測し、その結果、複数のケースでランダムより高い性能が確認されました。
  • 例えば、外向性については「関係性」や「自己内省」に関わるやり取りで、ベースラインに対して相対的に+44%改善しています。
  • さらに、本研究は会話の種類ごとにプライバシー漏えいの起こりやすさと影響度をよりきめ細かく示しています。

Abstract

個人の性格に関する知識のような機微な情報は、行動に影響を与えるために悪用され得ます(例:パーソナライズされたメッセージングを通じて)。個人の性格が、LLMベースの会話エージェント(CA)とのユーザ間相互作用からどの程度推論可能かを評価するために、CAの利用に関連するプライバシー上のリスクを分析し、定量化します。私たちはN=668人の参加者から実際のChatGPTログを収集し、62,090件の個別チャットを含むデータを用いて、共有されたデータのさまざまな種類とユースケースに関する統計を報告します。CAとの相互作用から性格特性を推論するために、RoBERTa-baseのテキスト分類モデルを微調整しました。その結果、これらのモデルは複数のケースにおいて、ランダムよりも優れた精度(3値分類)で特性推論を達成できることが示されました。例えば、外向性については、「関係」に関する相互作用および「個人的な内省」に関する相互作用では、ベースラインに対して精度が+44%改善します。本研究は、CAとの相互作用がどのようにプライバシー上のリスクをもたらし得るかを示すとともに、相互作用の種類ごとに関連するリスクの度合いについて、きめ細かな洞察を提供します。