Detecting Non-Membership in LLM Training Data via Rank Correlations
arXiv cs.CL / 3/25/2026
💬 OpinionIdeas & Deep AnalysisModels & Research
Key Points
- 研究は、LLMの学習に使われたかどうか(membership)とは別の課題として、「特定データセットが学習に使われていないこと(non-membership)」を検証する手法を扱っています。
- 提案手法PRISMは、モデルのロジットに対する灰色ボックス(grey-box)アクセスのみで、正規化トークン対数確率の順位相関の高低を手がかりに非メンバーシップを検出します。
- 新規性の核となる観察として、未学習のデータセットについては2モデル間で正規化トークン対数確率の順位相関が高くなる一方、片方が当該データで学習済みの場合は相関が変化する点を利用しています。
- 実験では、テストした全データセットに対してPRISMが学習不使用(非メンバーシップ)を安定して棄却でき、かつ誤検知を避けられることを示しています。
Related Articles
The Security Gap in MCP Tool Servers (And What I Built to Fix It)
Dev.to

Adversarial AI framework reveals mechanisms behind impaired consciousness and a potential therapy
Reddit r/artificial
Why I Switched From GPT-4 to Small Language Models for Two of My Products
Dev.to
Orchestrating AI Velocity: Building a Decoupled Control Plane for Agentic Development
Dev.to
In the Kadrey v. Meta Platforms case, Judge Chabbria's quest to bust the fair use copyright defense to generative AI training rises from the dead!
Reddit r/artificial