ContextLens:法令遵守のために、不完全なプライバシーおよび安全性の文脈をモデル化する

arXiv cs.CL / 2026/4/15

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、完全な情報が得られることを前提とせず、準ルールベースのフレームワークであるContextLensを提案する。これはLLMを用いて、法的・プライバシー・安全性に関する不完全で曖昧な文脈を解釈し、遵守目的に活用する。
  • ContextLensは、細工した質問をLLMにプロンプトとして与えることで、入力文脈を法分野に根付かせる。質問は適用可能性、一般原則、詳細な法規定を含み、既知の要因と未知の要因を明示的にフラグ付けする。
  • GDPRおよびEU AI Actの遵守ベンチマークに関する実験により、ContextLensは追加学習なしで、従来のベースラインよりも優れ、LLMの遵守評価を大幅に改善できることが示される。
  • このアプローチは、現実のシナリオにおいて遵守判断に影響し得る、曖昧または欠落した文脈要因の特定にも役立つ。

概要: 個人のデータプライバシーおよびAIセーフティに対する懸念は、きわめて文脈依存的であり、機微なパターンを超えて広がります。これらの問題に対処するには、潜在的なリスクを特定し、軽減するための文脈についての推論が必要です。研究者は、文脈依存の安全性およびプライバシー評価のための評価者として、大規模言語モデル(LLM)を用いることを広く探究してきました。しかし、これらの取り組みは通常、完全で明確な文脈が利用可能であることを前提としています。一方、現実世界の文脈はしばしば曖昧で不完全です。本論文では、ContextLens を提案します。これは、法的領域において入力文脈を根拠づけるために LLM を活用し、法令遵守のために既知および未知の要因の両方を明示的に特定する、半ルールベースの枠組みです。安全性のアウトカムを直接評価するのではなく、私たちの ContextLens は LLM に対し、あらかじめ定義された優先事項およびルールに照らして遵守状況を評価するために、適用可能性、一般原則、詳細な条項にまたがるように設計された一連の質問に答えるよう指示します。私たちは、一般データ保護規則(GDPR)および EU AI Act をカバーする既存の遵守ベンチマークに対して、大規模な実験を行います。その結果、私たちの ContextLens は、学習なしで既存のベースラインを上回り、LLM の遵守評価を大幅に改善できることが示唆されます。さらに、ContextLens は、曖昧で欠落した要因をより一層特定することができます。

ContextLens:法令遵守のために、不完全なプライバシーおよび安全性の文脈をモデル化する | AI Navigate