AIエージェントの暴走を止めるためのオープンソース実行ランタイム層「Cycles」を作った(フィードバック募集中)

Reddit r/artificial / 2026/5/3

💬 オピニオンDeveloper Stack & InfrastructureSignals & Early TrendsTools & Practical UsageModels & Research

要点

  • 著者は、AIエージェントがツールや外部システムを使い始めると、暴走行為やリスクのある副作用を抑えるのが難しくなるという課題を説明しています。
  • 権限チェックやレート制限だけでは、リトライループ、分岐(ファンアウト)、高額なモデル/API利用の想定外、過剰なメール送信、処理が逸脱しても動作し続けるといった失敗パターンに対応できないと主張しています。
  • Cyclesは、エージェントのアクションが実行前に予算/ポリシーの範囲内かを確認する「ランタイムの権限レイヤー」として、オープンソースで提供されると紹介されています。
  • Cyclesは reserve → execute → commit の流れを採用し、許容量を予約して実行し、その実際の結果をコミットすることで、上限を超えるアクションを実行前にブロックします。
  • 著者は、エージェントのアクションを実行前に制御しているか、事後のログ/アラートに頼っているか、またこの予約/実行/コミット方式が現実のシステムに有用かについてコミュニティの意見を求めています。

AIエージェントを試していると、きっとこの問題にぶつかるはずです。エージェントがツール、API、モデル、メールシステム、データベース、ジョブなどを呼び始めると、その先に何が起こるのかをコントロールしづらくなることがあります。

権限(Permissions)への答えはこうです:「このエージェントは、このツールを使うことがまったく可能ですか?」

レート制限(Rate limits)への答えはこうです:「どれくらいの速さで呼び出せますか?」

しかし、エージェントは別の形で失敗します。リトライし続けたり、ループしたり、処理を広げて(fan out)しまったり、高価なモデルを呼び出したり、メールを送りすぎたり、ジョブを発火させたり、あるいは実行がすでに想定から外れてしまった後も動き続けたりします。

私はこの問題に取り組むためにCyclesを作りました。

Cyclesは、AIエージェントのためのオープンソースのランタイム権威レイヤーです。エージェントがコストの高い、またはリスクのあるアクションを取る前に、Cyclesはそのアクションが許可された予算やポリシーの範囲内にまだ収まっているかを確認します。はいなら、許容量を予約し、アクションを実行し、その後、実際に何が起きたかをエージェントがコミットします。いいえなら、実行前にそのアクションはブロックされます。

目的は、以下の状況でエージェントの実行をより安全にすることです:

  • 暴走するリトライのループ
  • 予期しないモデル/APIの費用
  • 複数ステップにわたるエージェントのワークフロー
  • 同じ予算を共有する複数の同時エージェント
  • ユーザーごと/テナントごとの制限
  • メール、DBへの書き込み、API呼び出し、ジョブのトリガーのようなリスクの高いアクション

これは、オブザーバビリティやトレーシングを置き換えるためのものではありません。そうしたものは今でも有用です。ギャップがあるのは、請求や副作用がすでに発生した後ではなく、実行の直前です。

Repo: https://github.com/runcycles

皆さんは今日これをどのように扱っていますか?

実行前にエージェントのアクションを制御(ゲート)していますか?
それとも、事後に主にログ/アラートに頼っていますか?

予約 → 実行 → コミットというモデルは、実際のエージェントシステムで役に立つでしょうか?それとも、早すぎる過剰なインフラに感じますか?

submitted by /u/jkoolcloud
[link] [comments]