[P] AIエージェントを作っているなら、ログだけでは不十分です。証拠が必要です。

Reddit r/MachineLearning / 2026/4/8

💬 オピニオンDeveloper Stack & InfrastructureSignals & Early TrendsTools & Practical Usage

要点

  • 著者は、ログだけでは説明したり裏付けたりできない本番環境での失敗に対処するために、AIエージェント向けのプログラマブルなガバナンス層を開発しています(例:誤ったツールの使用、機密データの露出、高リスク行為の不適切な承認)。
  • PythonおよびTypeScriptで実装した「AI Governance SDK」を、完全にオープンソース化することも検討しています。監査証跡、決定論的なランタイムのリスク判断、そしてコンプライアンスに関する証拠の生成/検証を提供するためです。
  • このSDKは、認証、キュー、オブザーバビリティのようにチームが組み込むのと同じ精神で、エージェントのループ、ツール呼び出し、ランタイム制御に直接統合されるよう設計されています。
  • 主な機能には、エージェントが何をしたのか、なぜそのアクションが許可されたのか、どのポリシー/リスクの入力が関与したのか、後から実行をリプレイできるのか、そしてドリフト診断を生成できるのかを回答することが含まれます。
  • この投稿では、本番環境でAIエージェントを開発者が完全に信頼できるようにするには何が必要かについてフィードバックを求めています。これは、スタンドアロンのガバナンス・ダッシュボードではなくインフラとして位置付けられています。

私はAIエージェント向けの、プログラマブルなガバナンス層を構築しました。完全にオープンソース化しようと考えています。フィードバックを探しています。

エージェントのデモは簡単です。

プロダクションのエージェントでは、物事が厄介になります:

  • エージェントが間違ったツールを呼び出す
  • 機密データがモデルに渡されてしまう
  • 高リスクなアクションが、本来承認されるべきでないのに承認される
  • 顧客が「この実行で正確に何が起きたの?」と聞いてくる
  • チームが後でチェーンをリプレイして改ざんされていないことを証明する必要がある

それが、私がAI Governance SDKで解決しようとしている問題です。

SDKはPythonとTypeScriptで提供されており、エンジニアがプログラマブルに次のような追加を行えるようにします:

  • エージェントの実行およびツール呼び出しの監査トレイル
  • 実行時アクションに対する決定論的なリスク判断
  • コンプライアンスの証明生成および検証
  • 履歴の実行に対するリプレイ+ドリフト診断

中核となる考え方はシンプルです:

エージェントが推論し、ツールを呼び出し、アクションを取ることができるなら、ログ以上のものが必要です。次の問いに答えられるシステムが必要です:

  • エージェントは何をしたのか?
  • なぜそのアクションが許可されたのか?
  • どのポリシー/リスクの入力が関与していたのか?
  • その実行を後でリプレイできるのか?
  • セキュリティ、コンプライアンス、またはエンタープライズのレビューのためのエビデンスを生成できるのか?

エンジニアとして私が欲しかったのは、別の「AIガバナンス・ダッシュボード」ではありませんでした。

欲しかったのはインフラです。

認証、キュー、または可観測性を配線するのと同じように、エージェントのループ、ツール呼び出し、そして実行時の制御に組み込めるものが欲しかったのです。

エージェント、コパイロット、または自律的なワークフローに取り組んでいるなら、率直なフィードバックをいただきたいです:

プロダクション環境でAIエージェントを完全に信頼できるようにするには、何が必要ですか?

submitted by /u/Dismal_Piccolo4973
[link] [comments]