分離型エキスパート・アーキテクチャ:結合可能なアダプタと削除可能なユーザープロキシによるプライバシー保護LLMパーソナライズ

arXiv cs.AI / 2026/4/25

📰 ニュースDeveloper Stack & InfrastructureModels & Research

要点

  • 論文は、従来のLLMパーソナライズではユーザーデータが共有重みに組み込まれるため、個別のデータ削除が再学習なしではほぼ不可能だと主張しています。
  • 「Separable Expert Architecture」は、静的なベースモデル、結合可能なドメインエキスパートのLoRAアダプタ、そしてユーザーごとのプロキシ成果物を組み合わせることで、ユーザーのプロキシを削除すれば決定論的にアンラーニングが成立する三層構成を提案しています。
  • Phi-3.5-mini と Llama-3.1-8B での評価では、個人データが出力に影響しつつユーザー間の強い隔離が維持され、プロキシ削除後にベースラインへ復帰することが示されています。
  • 著者らは、個人情報が共有重みに入らないため、モデル反転(model inversion)やメンバーシップ推論、学習データ抽出といったプライバシー攻撃を設計上軽減できると述べています。
  • この手法は「機械的アンラーニング」を、困難な重み編集問題ではなく決定論的な削除操作として捉え直し、共有モデルのプライバシー保護学習にDP-SGDとも両立できると位置づけています。