検証可能なAI実行(Verifiable AI Execution)と zkML:NexArtが証明すること、しないこと、そしてプライバシーが実運用でどのように機能するか

Dev.to / 2026/3/24

💬 オピニオンDeveloper Stack & InfrastructureIdeas & Deep AnalysisTools & Practical Usage

要点

  • 記事は、「検証可能なAI(verifiable AI)」が、実行のエビデンス、計算の正確性、プライバシー/コンプライアンスに関する主張など、複数の異なる目的を包括する広いラベルであることを説明している。
  • NexArtは、暗号学的に封印された入力、出力、パラメータ、実行時のコンテキストを含むCertified Execution Records(CERs)を生成し、後から独立した検証ができるようにする「実行エビデンス」システムとして位置付けられている。
  • CERは主に、記録の真正性、改ざん耐性、そしてチェーン・オブ・カストディ(引き渡しの履歴)を証明することで、AI出力そのものが本質的に正しいことを検証するというよりも、実行の整合性と監査可能性を可能にする。
  • NexArtは、LLMの決定性(determinism)を保証しない。隠された計算の正確性を証明もしない。既定でゼロ知識によるプライバシーを提供もしない。
  • 記事はこれを、特定の計算が正しく実行されたことを(多くの場合、定義された回路を通じて)証明することを目的とするzkMLと対比している。さらに、基礎となるデータをゼロ知識技術により保護できる可能性がある。

AIシステムは、より強力になり、より自律的になり、そして現実世界のワークフローへより一体化してきています。

同時に、どこにでも現れる新しいフレーズがあります。それが「検証可能なAI(verifiable AI)」です。

しかし、そのフレーズは非常に異なるものを指して使われています。

時には、それは次のことを指します:

モデルが実行されたことの証明
レコードが改ざんされていないことの証明
計算が正しいことの証明
データを明らかにせずに何かを証明すること
コンプライアンスや監査可能性の証明
これらは同じ問題ではありません。

また、それらは同じインフラによって解決されません。

ここから混乱が始まります。

この記事では、検証可能なAI実行とzkMLの違いを明確にし、NexArtが実際に何を証明するのかを説明し、またNexArtが今日サポートしているプライバシーモデルを概説します。

検証可能なAIをめぐる混乱
「検証可能なAI(verifiable AI)」という用語は、しばしば万能の言葉として使われます。

しかし実際には、少なくとも2つの明確に異なるカテゴリを含んでいます:

実行エビデンスシステム
計算証明(computation proof)システム
NexArtとzkMLは、この領域の異なる部分に位置しています。

この違いを理解することが重要です。

NexArtが実際に行うこと
NexArtは、検証可能な実行記録に焦点を当てています。

Certified Execution Records(CER:認定実行記録)を生成します。CERは:

暗号学的に封印された実行アーティファクト
入力、出力、パラメータ、および文脈の構造化された記録
改ざん検知可能で、独立に検証可能
アテステーションにより、任意で署名される
これらの記録は、AI実行のエビデンスを捉えるよう設計されています。

定義:Certified Execution Record(CER)
Certified Execution Recordは、改ざん検知可能で暗号学的に検証可能なアーティファクトであり、入力、パラメータ、実行時コンテキスト、出力など、AI実行の本質的事実を、後で独立に検証できる形で記録します。

Certified Execution Recordが証明できること
CERにより、システムは次を証明できます:

実行記録が改変されていないこと
どの入力とパラメータが記録されたか
どの出力が生成されたか
どの実行コンテキストが存在したか
記録の完全性と、その記録の保管・引き渡しの連鎖(chain of custody)
これにより実行の完全性が担保され、AIの監査可能性が支えられます。

NexArtが証明しないこと
正確に言うことが重要です。

NexArtは次を保証しません:

LLMの決定性を保証すること
出力が正しいことを証明すること
隠れた計算の正しさを証明すること
デフォルトでゼロ知識によるプライバシーを提供すること
NexArtは、計算が正しいことを証明しようとしているのではありません。

証明しているのは、実行の記録が真正であり、改ざん検知可能で、損なわれていないということです。

代わりにzkMLが証明すること
zkML(zero-knowledge machine learning、ゼロ知識機械学習)は、別の問題に焦点を当てています。

zkMLは次を証明しようとします:

特定の計算が正しく実行されたこと
モデルが、定義された回路(circuit)に従って結果を生成したこと
基盤となるデータを明らかにせずに、特定の性質が成り立つこと
これはしばしば次を含みます:

ゼロ知識証明
暗号学的回路
プライバシーを保護した計算
定義:zkML
zkMLは、機械学習の計算が正しく行われたことを検証するためにゼロ知識証明を用いる手法を指し、しばしば基盤となるデータやモデルの詳細を明らかにせずに行われます。

zkMLは実行記録ではなく、計算に関するものです
これが重要な違いです:

zkMLは計算証明(computation-proof)のインフラです。

NexArtは実行エビデンス(execution-evidence)のインフラです。

zkMLは次に答えます:

この計算が正しいことを証明できるか?

NexArtは次に答えます:

実際に何が実行されたのかを証明できるか?

これらは異なる信頼の問題です。

透明なエビデンス vs 秘密の証明
この2つのアプローチは、異なる信頼モデルを表しています。

NexArt
デフォルトで透明。

監査可能性のために設計
デバッグや調査を支援
完全な実行コンテキストを記録
改ざん検知可能な実行記録を生成
最適な用途:

エンタープライズのAIワークフロー
ガバナンスおよびコンプライアンス
エージェント実行のトラッキング
インシデント分析
zkML
設計としてプライベートな証明。

詳細なデータを明らかにせずに正しさを証明
機密性の高い計算をサポート
情報開示を最小化
最適な用途:

プライバシーに敏感な環境
オンチェーン検証
隠れたモデルやデータのシナリオ
これらのモデルは相互に排他的ではありません。

組み合わせることもできます。

NexArtにおけるプライバシー:現在存在するレベル
NexArtはデフォルトで透明ですが、構造化された仕組みにより選択的なプライバシーをサポートします。

実用的なプライバシー・ラダー(段階)を示します。

プライバシーレベル1 — 完全な透明性
実行記録には完全なデータが含まれます。

最適な用途:

社内システム
デバッグ
完全な監査可視性
トレードオフ:

監査可能性の最大化
機密性の最小化
プライバシーレベル2 — 検証可能な削除(Redaction)
機密フィールドは削除されますが、結果として得られる記録は検証可能なままです。

Mediumメンバーになる
最適な用途:

外部共有
顧客向けの検証
制御された開示
トレードオフ:

機密データを保護する
削除されたアーティファクトが、新たな検証可能な記録になる
プライバシーレベル3 — ハッシュベースのエビデンス
機密値はハッシュやエンベロープとして表現されます。

これにより、データを即座に明らかにせずに後から証明できます。

最適な用途:

選択的開示
値が存在したことを証明すること
部分的な機密性
トレードオフ:

完全性を保持する
完全なプライバシー保証は提供しない
プライバシーレベル4 — 外部エビデンス参照
機密データはCERの外に保持され、ハッシュやメタデータを通じて参照されます。

最適な用途:

エンタープライズで管理された環境
アクセスが制限されたシステム
コンプライアンス・ワークフロー
トレードオフ:

より強い運用上のプライバシー
完全な検証には外部システムに依存する
重要な原則

NexArtはデフォルトで透明ですが、選択的なプライバシーは実行の完全性を損なわずに適用できます。

NexArtのプライバシーが「〜ではない」こと
混乱を避けるため、明確にしておくことが重要です。

NexArtのプライバシーは次ではありません:

計算の正しさに関するゼロ知識証明
完全な秘匿推論
隠れモデルの検証
zkの複雑さなしの、zkスタイルのプライバシー
NexArtのプライバシーモデルは次に基づいています:

選択的削除(redaction)
完全性の保持
構造化された実行エビデンス
ゼロ知識システムの代替を目指していません。

なぜ実行エビデンスが依然として重要なのか
多くの現実世界のAIシステムには次が必要です:

改ざん検知可能な実行記録
監査可能性とガバナンスのエビデンス
意思決定に関する構造化された文脈
署名された実行アーティファクト
独立に検証可能な記録
プライバシーを保護した計算の証明がなくても、これらのニーズは存在します。

これは特に次で重要です:

エンタープライズのAIシステム
エージェント実行ワークフロー
ガバナンス・パイプライン
インシデント調査
規制報告
実行エビデンスは、しばしば最初の要件です。

この位置づけはAI規制の中でどこに当たるか(EU AI Actおよびその先)
規制は、検証可能なAIシステムへの需要を高めています。

EU AI Actのようなフレームワークは、次を重視しています:

意思決定のトレーサビリティ
システム挙動のドキュメンテーション
AIワークフローの監査可能性
高リスクなシステムにおける説明責任(アカウンタビリティ)
これらの要件が、必ずしもゼロ知識証明を義務づけるわけではありません。

多くの場合、より実務的な何かが求められます:

構造化された実行記録
改ざん検知可能な実行エビデンス
意思決定を再構築し、レビューできること
ここで、検証可能なAI実行が関係してきます。

NexArtのようなシステムは次を支援します:

AIの監査可能性
ガバナンス・ワークフロー
コンプライアンス・ドキュメンテーション

完全な計算証明向けのインフラストラクチャを必要とせずに。

NexArtとzkMLが連携できる場所
これらのシステムは補完関係になり得ます。

実用的なアーキテクチャは、次のように考えられます:

NexArtは実行コンテキスト、入力、出力、および来歴(provenance)を記録します
zkMLは特定の重要な計算の正しさを証明します
一緒になることで、次の両方を提供します:
監査可能性(auditability)
必要に応じたプライバシー
今日のほとんどのシステムでは:

実行の証拠(execution evidence)が実用上の出発点です
計算の証明(computation proofs)は選択的に追加できます
ビルダーにとっての意味
AIシステムを構築しているなら、次を問いかけてください:

改ざん耐性のある実行記録が必要ですか?
監査可能性とガバナンスのための証拠が必要ですか?
エージェントの実行と意思決定を追跡する必要がありますか?
特定のフィールドに対する選択的なプライバシーが必要ですか?
本当にゼロ知識による計算証明が必要ですか?
多くの場合:

NexArtが実行の証拠レイヤーを提供します
zkMLまたは同様のシステムは、特定のユースケースに対して追加されるかもしれません
結論
検証可能なAIの実行は、ゼロ知識AIの証明とは同じではありません。

NexArtは実行の証拠のために構築されています:

改ざん耐性のある実行記録
アテステーション(attestation)
監査可能性(auditability)
実行の完全性(execution integrity)
これは、隠された計算の正しさを証明することとは別物です。

両方のカテゴリが重要です。

しかし、それぞれ別の問題を解決します。

AIにおけるすべての信頼問題が、ゼロ知識の問題というわけではありません。

多くは、まず「実行の証拠」の問題です。

さらに詳しく
https://nexart.io
https://docs.nexart.io
https://verify.nexart.io