広告

大規模言語モデルから人間に整合したプライバシー感度評価を抽出する

arXiv cs.CL / 2026/4/1

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、テキストに対する正確なプライバシー感度評価を目標とし、LLMが人間のプライバシー判断に匹敵する一方で、機密データに対して大規模に実行するにはコストが高すぎる点を指摘する。
  • Mistral Large 3(675B)のプライバシー評価能力を、はるかに小さなエンコーダ分類器(約1.5億パラメータまで)へ蒸留し、プライバシースコアリングをより実用的にすることを提案する。
  • 著者らは、10の多様な領域にまたがる、プライバシー注釈付きテキストの大規模かつマルチドメインなデータセットを用いて学習し、人間の注釈との強い一致を維持しつつ軽量モデルを構築する。
  • この手法は、人間がラベル付けしたテストデータで検証され、脱識別(デ-identification)システムのための利用可能な評価指標として提示される。これにより、実運用のプライバシーワークフローでの実現可能性が向上する。

広告