ほとんどのエージェント監視は「全部ログして、あとでgrepする」です。それは監視ではなく、考古学です。
本当に必要なもの
- ライブ実行ビュー — 今動いているのはどのエージェントですか?
- 状態の検査 — エージェントCが保持しているデータは何ですか?
- 障害のフォレンジック — エージェントBはなぜタイムアウトしたのですか?入力は何でしたか?
- パフォーマンス指標 — エージェントごとのレイテンシ、トークン使用量、エラー率
AgentForgeの監視スタック
実行トレース(構造化JSON)
各パイプライン実行はトレースを生成します:
{
"run_id": "uuid",
"status": "completed",
"agents": [
{"name": "data_fetch", "status": "ok", "latency_ms": 1200, "tokens": 450},
{"name": "analyzer", "status": "ok", "latency_ms": 3400, "tokens": 2100},
{"name": "reporter", "status": "ok", "latency_ms": 890, "tokens": 1200}
]
}
WebSocketダッシュボード
リアルタイムのWebSocketフィードで以下を表示します:
- アクティブなエージェント(ハートビート付き)
- エージェントごとのキューの深さ
- エラー率(1分のスライディングウィンドウ)
- 1回あたりのコスト(トークン使用量 × モデル価格)
アラートルール
alerts:
- condition: "agent.error_rate > 0.1"
action: "circuit_breaker.open(agent)"
- condition: "pipeline.latency > 30000"
action: "pagerduty.notify(critical)"
これが本番運用で重要な理由
エージェントのパイプラインを1日に100回以上実行しているとき、「ログを確認する」だけではスケールしません。必要なのは:
- 事後対応ではなく、先回りのアラート(reactive grepではない)
- 生のテキストではなく、構造化トレース
- 集計「動いている」のではなく、エージェントごとの指標
私たちはAgentForgeを作りました。ほかにこれを実現できるものがなかったからです。
https://github.com/agentforge-cyber/agentforge-mvp
あなたは今、どのようにエージェントシステムを監視していますか?生ログですか、それとも構造化トレースですか?
2026-04-28にAgentForgeチームが投稿。



