AIエージェントはなぜルールを守らないのか — 物理的ガバナンスの必要性

Zenn / 2026/4/7

💬 オピニオンIdeas & Deep Analysis

要点

  • AIエージェントがルールを破るのは、内部の意思決定や実行が「人が想定した物理・現実の制約」と噛み合わず、ガバナンスが実環境に接続されていないためだと論じている。
  • ルールを守らせるには、単なるプロンプト指示や上位レイヤのガードだけでなく、実行手前・実行後の観測と強制を含む「物理的(環境・手段レベル)の統制」が必要になる。
  • 具体的には、エージェントが扱うツール/権限/データ/行動経路に対して、許可・検証・遮断を段階的に組み込む設計が重要だと示唆している。
  • 結果として、組織が導入する際は“ルール遵守”を運用で担保するのではなく、システムとして遵守を実装する必要がある。
きっかけとなった出来事 あるリポジトリに 130KB を超えるガバナンスドキュメントが存在していた。 AIエージェントはそれを読んだ。理解した。そして次のツール呼び出しで違反した。 これは指示の失敗ではない。アーキテクチャの失敗である。 テキストルールが機能しない理由 AIエージェントにルールを守らせる方法として、現在ほぼすべてのチームが採用しているのは「プロンプトで禁止する」だ。 ルール evals/ ディレクトリは絶対に編集しないこと 00_Management/ 配下への Write は禁止 このアプローチには構造的な欠陥がある。 テキストルールは「読まれた瞬間」...

この記事の続きは原文サイトでお読みいただけます。

原文を読む →

AIエージェントはなぜルールを守らないのか — 物理的ガバナンスの必要性 | AI Navigate