プロンプトとコンテキスト処理によるプライバシーガード&トークン節約、およびLLMルーティング
arXiv cs.AI / 2026/4/1
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文は、LLMの運用コスト最適化(ルーティング)とデータプライバシー確保のトレードオフを問題化し、従来手法がプロンプトの機微に無関心であるためにクラウド事業者へ漏えいするリスクがあると指摘しています。
- 「Inseparability Paradigm」に基づき、文脈管理(コンテキスト処理)とプライバシー管理は本質的に同時に扱うべきだと主張し、ローカルのSmall Language Model(SLM)で動作する「Privacy Guard」を提案しています。
- Privacy Guardは、抽象的要約(abstractive summarisation)と自動プロンプト最適化(APO)によりプロンプトを小さなサブタスクへ分解し、高リスク問い合わせをZero-TrustやNDAでカバーされたモデルへ再ルーティングします。
- LIFOベースのコンテキスト圧縮によりワーキングメモリを制限して漏えい面(emergent leakage surface)を抑えるとし、2x2ベンチマークでOpExを45%削減、個人秘匿情報で100%のレダクション成功、APO圧縮応答が85%好まれたと報告しています。
- 結果として「Token Parsimony(トークン節約)」と「Zero Leakage(漏えいゼロ)」が、同一の文脈圧縮オペレータの双対的な投影(mathematically dual projections)であると位置づけています。




