NANOZK: 層ごとのゼロ知識証明による検証可能な大規模言語モデル推論

arXiv cs.AI / 2026/3/20

💬 オピニオンDeveloper Stack & InfrastructureModels & Research

要点

  • METHODは、LLM(大規模言語モデル)の出力が特定のモデル由来であることを暗号的に検証できるゼロ知識証明システムです。
  • このアプローチはトランスフォーマー推論を独立した層に分解し、層ごとに定数サイズの証明を生成することで、モデルの幅に関係なく並列証明を可能にします。
  • ソフトマックス、GELU、LayerNormに対するルックアップテーブルによる近似を用い、測定可能な精度の損失をゼロに抑えつつ、完全な証明が現実的でない場合にはFisher情報に基づく検証を用いて非常に深いモデルを扱えるようにします。
  • 深さ d=128 までのトランスフォーマーモデルに対して、METHODは層ごとの証明を5.5 KB、検証時間を24 msで達成し、EZKLより証明が70倍小さく、証明作成が5.7倍速く、ε < 1e-37 の形式的健全性を維持します。
  • ルックアップ近似はパープレキシティを正確に保持し、モデル品質を損なうことなく検証可能な推論を実現します。

要旨:ユーザーが独自のLLM APIを照会すると、主張されたモデルが実際に使用されたという暗号的保証のない出力を受け取る。サービス提供者はより安価なモデルに置換したり、過度な量子化を適用したり、キャッシュされた応答を返したりする可能性がある—いずれも最先端機能に高価格を支払うユーザーには検出できない。METHOD はゼロ知識証明システムで、LLM推論を検証可能にする。ユーザーは出力が特定のモデルの計算に対応することを暗号的に確認できる。
私たちのアプローチは、トランスフォーマー推論が自然に独立した層計算に分解されるという事実を活用し、各層がモデル幅に関係なく一定サイズの証明を生成する層ごとの証明フレームワークを可能にする。この分解はモノリシックなアプローチが直面するスケーラビリティの障壁を回避し、並列証明を可能にする。我々は非演算操作(softmax、GELU、LayerNorm)に対するルックアップテーブル近似を開発し、測定可能な精度の損失をゼロに抑える。さらに、すべての層を証明するのが現実的でない状況に対しては、フィッシャー情報に基づく検証を導入する。
d=128 までのトランスフォーマーモデルでは、METHOD は固定サイズの層証明を5.5KB(アテンション2.1KB + MLP3.5KB)として生成し、検証時間は24 ms である。EZKLと比較して、d=128 で METHOD は証明を70倍小さく、証明時間を5.7倍速く実現しつつ、形式的な健全性保証(epsilon < 1e-37)を維持する。ルックアップ近似はモデルのパープレキシティを正確に保持し、品質を損なうことなく検証を可能にする。