CI-Work:エンタープライズLLMエージェントにおける文脈整合性(Contextual Integrity)のベンチマーク

arXiv cs.CL / 2026/4/24

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、文脈整合性(CI)に基づくベンチマーク「CI-Work」を提案し、エンタープライズLLMエージェントが複数の情報フロー方向にわたって安全に内部文脈を扱えるかを検証します。
  • 緻密なリトリーバル(密な検索)設定では、最先端モデルの評価でプライバシー侵害が頻発し、違反率は15.8%〜50.9%の範囲、漏えいが最大26.7%に達することも報告されています。
  • 研究では、導入上重要な逆説的なトレードオフとして「タスク有用性が高いほど、プライバシー侵害が増える」傾向を明らかにしています。
  • 著者らは、企業データ量の大規模さや現実的なユーザー行動も相まって、モデル規模の単純な拡大や推論の深掘りだけでは漏えい問題を解決できないと主張しています。
  • エンタープライズのワークフロー保護には、モデル中心のスケーリングから、文脈中心のアーキテクチャへとパラダイム転換する必要があると結論づけています。

要旨: エンタープライズLLMエージェントは業務の生産性を大幅に向上させることができますが、その中核となる能力である、ユーザーの代わりに行動するために内部の文脈を取得して利用することは、機微情報の漏えいに関する新たなリスクも生み出します。私たちは、5つの情報フローの方向にわたってエンタープライズの業務フローを模倣し、密な検索設定において、エージェントが重要な内容を伝えつつ機微な文脈を控えられるかを評価する、文脈的整合性(Contextual Integrity: CI)に基づくベンチマーク「CI-Work」を提案します。最先端モデルの評価の結果、プライバシーの失敗が広く見られることが分かりました(違反率は15.8%-50.9%の範囲で、漏えいは最大26.7%に達します)。さらに、産業展開にとって重要な、直感に反するトレードオフも明らかになりました。すなわち、高いタスク有用性は、多くの場合、より大きなプライバシー違反と相関するというものです。加えて、エンタープライズデータの大規模さや潜在的なユーザー行動によって、この脆弱性はさらに増幅されます。単にモデルサイズや推論の深さを増やすだけでは、この問題に対処できません。私たちは、エンタープライズの業務フローを守るには、パラダイムシフトが必要であり、モデル中心のスケーリングから、文脈中心のアーキテクチャへと移行することが必要だと結論づけます。