Privacy Guard & Token Parsimony by Prompt and Context Handling and LLM Routing
arXiv cs.AI / 4/1/2026
💬 OpinionIdeas & Deep AnalysisModels & Research
Key Points
- 論文は、LLMの運用コスト最適化(ルーティング)とデータプライバシー確保のトレードオフを問題化し、従来手法がプロンプトの機微に無関心なためにクラウド事業者へ漏えいするリスクがあると指摘しています。
- 「Inseparability Paradigm」に基づき、文脈管理(コンテキスト処理)とプライバシー管理は本質的に同時に扱うべきだと主張し、ローカルのSmall Language Model(SLM)で動く「Privacy Guard」を提案しています。
- Privacy Guardは、抽象的要約(abstractive summarisation)と自動プロンプト最適化(APO)によりプロンプトを小さなサブタスクへ分解し、高リスク問い合わせをZero-TrustやNDAでカバーされたモデルへ再ルーティングします。
- LIFOベースのコンテキスト圧縮によりワーキングメモリを制限して漏えい面(emergent leakage surface)を抑えるとし、2x2ベンチマークでOpExを45%削減、個人秘匿情報で100%のレダクション成功、APO圧縮応答が85%好まれたと報告しています。
- 結果として「Token Parsimony(トークン節約)」と「Zero Leakage(漏えいゼロ)」が、同一の文脈圧縮オペレータの双対的な投影(mathematically dual projections)であると位置づけています。
Related Articles

Knowledge Governance For The Agentic Economy.
Dev.to

AI server farms heat up the neighborhood for miles around, paper finds
The Register
Does the Claude “leak” actually change anything in practice?
Reddit r/LocalLLaMA

87.4% of My Agent's Decisions Run on a 0.8B Model
Dev.to

AIエージェントをソフトウェアチームに変える無料ツール「Paperclip」
Dev.to