[P] AgentGuard – AIエージェントが実行できることを制御するためのポリシーエンジン+プロキシ

Reddit r/MachineLearning / 2026/3/25

💬 オピニオンDeveloper Stack & InfrastructureSignals & Early TrendsTools & Practical Usage

要点

  • この記事では、AictionGuard(AgentGuard)という、AIエージェントとそのツールの間に配置され、アクションが実行される前にルールを強制するための「ポリシーエンジン+プロキシ」を紹介する。
  • 破壊的なシェルコマンド(例:rm -rf *)をブロックすること、sudo のような特権操作に事前承認を要求すること、機密性の高い本番環境向け API 呼び出しをゲートすることなどの制御例が示される。
  • このプロジェクトは、エージェントのすべてのアクションに加えて、その理由とポリシー判断をログに残すことで、監査可能なガバナンスを重視している。
  • 設定は YAML のポリシーファイルによって駆動されることを想定しており、著者はコアのポリシーエンジンと HTTP プロキシが実装されており、Python/TypeScript の SDK が動作していると報告している。
  • リリースは初期段階(アルファ)として説明されており、永続的なストレージがないことや配線が不完全であるといったギャップが指摘されている。著者は、アーキテクチャやポリシーのルール案についてのフィードバックを求めている。

AIエージェントがどんどん自律性を高めていき、シェルコマンドを実行し、APIを呼び出し、さらには機密性の高い操作まで扱うようになっているというトレンドを見ています。

しかし、これまで見てきたほとんどの構成には、基本的に強制(enforcement)層がありません。単に「エージェントがちゃんと振る舞うことを期待する」だけです。

そこで、AictionGuard というプロジェクトを作りました。

エージェントとツールの間に位置し、何かが実行される前にポリシーを強制します。

いくつかの例:

  • 実行前に rm -rf * のようなコマンドをブロック
  • sudo や本番環境API呼び出しのようなものに承認を必須にする
  • 推論+意思決定(監査証跡)とともに、あらゆるアクションをログに記録する
  • すべてをYAMLのポリシーファイルで定義する

現時点ではまだ初期段階(アルファ)ですが、:

  • コアのポリシーエンジンは動作中
  • HTTPプロキシを実装済み
  • Python + TypeScript のSDKが動作する

まだギャップはあります(永続DBなし、一部の機能はまだ接続されていない)ですが、土台はすでにあり、プロジェクト自体より先にREADMEを書いたので、そのギャップの解消にも引き続き取り組んでいます。

ぜひお願いします:

  • アーキテクチャへのフィードバック
  • ポリシールールのアイデア
  • AIセーフティ / インフラに関心のあるコントリビューター

Repo:
https://github.com/Caua-ferraz/AictionGuard

気になっているのですが、もしあなたがエージェントを構築または利用しているなら、何を制限または監視したいと思うでしょうか?

submitted by /u/SpecificNo7869
[link] [comments]