最近、先週の出来事として「7つのOpenClawでお金を稼ぐ事例」についての投稿を見ました。
最初は、これらの話はワクワクするように聞こえます:
1人の人間、1つのAIエージェント、1つのワークフロー、そして突然小さなビジネスが生まれる。
しかし、私が思う本当の教訓は単に「AIエージェントはお金を稼げる」ということではありません。
本当の教訓はこれです:
AIエージェントは、繰り返し作業を自動化されたワークフローに変える。
人々はエージェントを使って:
- リードを見つける
- コンテンツを生成する
- 価格を監視する
- 小さなツールを作る
- カスタマーサポートを自動化する
- 調査結果を要約する
- コーディングのワークフローを実行する
これらは単なるチャットボットではありません。
彼らは、ブラウズし、推論し、ツールを呼び出し、やり直し、要約し、そして前に進み続けるシステムです。
だからこそ、OpenClawのようなエージェント製品が興味深いのです。単に答えを返すだけではありません。実際に行動します。
ただし、隠れた問題があります。
エージェントはお金を稼げるが、お金を燃やしてしまうこともある
エージェントの各ステップが、別のモデル呼び出しを引き起こす可能性があります。
コーディングエージェントなら、例えばこういうことが起きます:
ファイルを編集
テストを実行
失敗
エラーを読み取る
もう一度ファイルを編集
もう一度テストを実行
また失敗
より多くの文脈を付けてリトライ
これは作業に見えます。
でも、場合によっては単なるループです。
そして、もし各ステップで高価なモデルを使ってしまうと、ユーザーが気づく前にエージェントが静かにAPI予算を燃やし切ってしまうことがあります。
ほとんどのLLMダッシュボードは、コストが発生したあとでしか表示しません。
それは役に立ちますが、しばしば手遅れです。
本当にエージェントのワークフローを安全に運用するには、次の3つが必要です:
コストの可視化 — お金はどこに消えたのか?
コストの予測 — どれくらいの費用になりそうか?
コストの保護 — プロバイダーに届く前に、このリクエストをブロックすべきか?
だから私はAgentCostFirewallを作っています。
AgentCostFirewallとは何ですか?
AgentCostFirewallは、ローカルファーストのOpenAI互換プロキシで、AIエージェントとモデルプロバイダーの間に挟まります。
AIエージェント
↓
AgentCostFirewall
↓
LLMプロバイダー
これは以下のために設計されています:
エージェントのコストを表示する
プロバイダー呼び出し前にコストを見積もる
予算超過の実行をブロックする
繰り返されるエージェントのループを検出する
保護された支出を追跡する
キャッシュによる節約効果を測定する
目標はシンプルです:
開発者が、驚きのAPI請求なしにAIエージェントを使えるようにする。
ノーキーのデモでは、編集/テストのループに詰まってしまったコーディングエージェントをシミュレートします。AgentCostFirewallは、別のプロバイダー呼び出しの前にその実行をブロックし、保護された見積りコストを表示します。
OpenClawや他のエージェントは、AIワークフローが価値を生み出せることを示しています。
しかし、エージェントが実際の業務の一部になるなら、ガードレールも必要です。
なぜなら、エージェントがあなたがお金を稼ぐのを手伝い始めたとき、最初にあなたのAPI予算を燃やしてほしくないからです。
GitHub:





