要旨: 大規模言語モデル、検索拡張生成(RAG)パイプライン、多代理人(マルチエージェント)AIワークフローの加速的な導入は、構造的なガバナンス危機を生み出しました。組織は、見えないものを統治することができず、既存の決定論的なWebアプリケーション向けに構築されたコンプライアンス手法は、正式な監督なしにエンジニアリングチーム間で創発するAIシステムを発見したり、継続的に検証したりするための仕組みを提供していません。その結果、規制当局がAIガバナンス成熟度の証明として求めるものと、組織が提示できるものとの間に信頼ギャップが拡大しています。本論文は、継続的かつ自律的なAI可観測性(observability)とゼロトラスト・コンプライアンスのためのガバナンス・アーキテクチャである「AI Trust OS」を提案します。AI Trust OSは、コンプライアンスを常時稼働のテレメトリ駆動型のオペレーティングレイヤとして再概念化し、その中でAIシステムは可観測性シグナルによって発見され、制御アサーションは自動プローブによって収集され、信頼成果物(trust artifacts)が継続的に合成されます。この枠組みは、4つの原則に基づきます。すなわち、先手を打った発見、手作業によるアテステーションではなくテレメトリによる証拠、時点(point-in-time)監査ではなく継続的な姿勢、ポリシードキュメントに頼った信頼ではなくアーキテクチャに裏付けられた証明です。この枠組みは、エフェメラルな読み取り専用プローブが構造メタデータを検証する一方で、ソースコードやペイロードレベルのPIIを取り込まない、ゼロトラストのテレメトリ境界によって機能します。AI Observability Extractor AgentはLangSmithおよびDatadogのLLMテレメトリをスキャンし、未ドキュメントのAIシステムを自動的に登録するとともに、ガバナンスを組織の自己申告から、経験的な機械による観測へと移行させます。ISO 42001、EU AI Act、SOC 2、GDPR、HIPAAの枠組みで評価した結果、本論文は、テレメトリ・ファーストのAIガバナンスが、エンタープライズの信頼がどのように生成され、どのように示されるかに関する分類上のアーキテクチャ的転換であることを論じます。
AI Trust OS — 自律型AIの可観測性とゼロトラスト準拠のための、継続的ガバナンス・フレームワーク
arXiv cs.AI / 2026/4/7
💬 オピニオンDeveloper Stack & InfrastructureIdeas & Deep Analysis
要点
- 本論文は、LLMおよびマルチエージェント・ワークフローに対するエンタープライズのガバナンスが失敗しているのは、特に決定論的なWebアプリ向けに設計された準拠(コンプライアンス)アプローチが前提とするように、継続的に観測できないシステムは統制(ガバナンス)できないためだと主張する。
- 「AI Trust OS」を提案し、テレメトリ駆動・常時稼働のガバナンス・アーキテクチャによって、AIシステムを継続的に発見し、自動プローブによって統制の主張(コントロール・アサーション)を収集し、信頼に関する成果物(トラスト・アーティファクト)を統合する。
- このフレームワークは4つの原則に基づく:先手の発見(proactive discovery)、手作業による宣誓ではなくテレメトリ証拠(telemetry evidence)、一点時点の監査ではなく継続的な姿勢(continuous posture)、そしてポリシー文書のみに依存するのではなくアーキテクチャに裏付けられた証明(architecture-backed proof)。
- 情報の侵入を防ぐため、ゼロトラストのテレメトリ境界と、エフェメラル(短命)な読み取り専用プローブを用いて、ソースコードやペイロード・レベルのPII(個人を特定できる情報)が取り込まれることを避けつつ、構造メタデータを検証する。
- 「AI Observability Extractor Agent」について、LangSmithおよびDatadogのLLMテレメトリをスキャンし、これまで未記録だったAIシステムを登録するとともに、観測可能性の実証的シグナルをISO 42001、EU AI Act、SOC 2、GDPR、HIPAAへマッピングして、ガバナンス成熟度のエビデンスを裏付けるための手段を提供することが述べられる。


