AIエージェントはなぜルールを守らないのか — 物理的ガバナンスの必要性
Zenn / 4/7/2026
💬 OpinionIdeas & Deep Analysis
Key Points
- AIエージェントがルールを破るのは、内部の意思決定や実行が「人が想定した物理・現実の制約」と噛み合わず、ガバナンスが実環境に接続されていないためだと論じている。
- ルールを守らせるには、単なるプロンプト指示や上位レイヤのガードだけでなく、実行手前・実行後の観測と強制を含む「物理的(環境・手段レベル)の統制」が必要になる。
- 具体的には、エージェントが扱うツール/権限/データ/行動経路に対して、許可・検証・遮断を段階的に組み込む設計が重要だと示唆している。
- 結果として、組織が導入する際は“ルール遵守”を運用で担保するのではなく、システムとして遵守を実装する必要がある。
きっかけとなった出来事
あるリポジトリに 130KB を超えるガバナンスドキュメントが存在していた。
AIエージェントはそれを読んだ。理解した。そして次のツール呼び出しで違反した。
これは指示の失敗ではない。アーキテクチャの失敗である。
テキストルールが機能しない理由
AIエージェントにルールを守らせる方法として、現在ほぼすべてのチームが採用しているのは「プロンプトで禁止する」だ。
ルール
evals/ ディレクトリは絶対に編集しないこと
00_Management/ 配下への Write は禁止
このアプローチには構造的な欠陥がある。
テキストルールは「読まれた瞬間」...
Continue reading this article on the original site.
Read original →Related Articles

Can You Really Trust AI Anonymizers? Governments Are Changing the Rules
Dev.to

AI-Powered DeFi Analysis: Using Claude with Live On-Chain Data for Protocol Research
Dev.to

AI Agents Don’t Need Bigger Context Windows. They Need Real Memory
Dev.to
[D] Is ACL more about the benchmarks now?
Reddit r/MachineLearning
Andrej Karpathy drops LLM-Wiki
Reddit r/LocalLLaMA