Agentic OS — ガバナンス付きマルチエージェント実行プラットフォーム

Reddit r/artificial / 2026/4/17

💬 オピニオンDeveloper Stack & InfrastructureSignals & Early TrendsModels & Research

要点

  • この記事では、「Agentic OS」という、ガバナンス付きマルチエージェント実行プラットフォームを紹介しており、コーディネータが目標をタスクに分解し、専門エージェントが統制されたツールアクセスを通じて実行し、必要に応じて人の承認へエスカレーションします。
  • CrewAI/AutoGen/LangGraphなどと異なり、エージェントそのものよりも、エージェント周辺のガバナンスと実行レイヤーに重点を置いています。
  • 重要な設計として、エージェント間で共有する可変状態をゼロにし、協業は構造化されたハンドオフのみに限定すること、承認ワークフローを「進める/止める/タイムアウト(デフォルト付き)」で設定できるポリシーエンジン、そして追記型のタスクバージョニング(更新者と理由を記録)があります。
  • さらに、出力品質、反復効率、レイテンシ、コスト、ポリシー準拠を評価する組み込み評価機能と、QA合格率などを加味したエージェント評判スコアリングが含まれます。
  • 実装スタックは React + TypeScript、FastAPI、SQLite WAL、OpenAI/Anthropic/AzureなどのLLMプロバイダを差し替え可能にし、MCPプロトコルを用い、チームプリセットや運用モデル、再利用可能なスキルも構成可能です。

私は、複数のAIエージェントが明示的な統治ルールのもとで構造化された作業を実行するシステムを構築してきました。マルチエージェントシステムを作っている人にとって、アーキテクチャが面白いかもしれないので共有します。

何ができるか: 目標を設定します。コーディネータエージェントがそれをタスクに分解します。専門エージェント(開発者、デザイナー、QAなど)は、制御されたツールアクセスを通じて実行し、明示的な引き継ぎによって協力し、成果物を作成します。QAエージェントが出力を検証します。エスカレーションは人の承認のために表に出ます。

CrewAI/AutoGen/LangGraphとの違い:

焦点はエージェントそのものではなく、エージェントの周りにある統治および実行レイヤーです。

  • ツール呼び出しは、MCPゲートウェイ経由で行われ、役割ごとの権限チェックと監査ログが付く
  • エージェント間で共有の可変状態がゼロ——協力は構造化された引き継ぎのみ
  • 設定可能な承認ワークフローを備えたポリシーエンジン(proceed/block/timeout-with-default)
  • 追記のみのタスクのバージョニング——変更のたびに、著者と理由付きで新しいバージョンが作られる
  • 組み込みの評価エンジンが、品質、イテレーション回数、レイテンシ、コスト、ポリシー準拠をスコア化する
  • 重み付きの計算式によるエージェントの評判スコア(QAパス率、イテレーション効率、レイテンシ、コスト、信頼性)

アーキテクチャ: 境界を厳密に定めた5層構成——フロントエンド(可視化のみ)、APIゲートウェイ(認証/RBAC)、オーケストレーションエンジン(24モジュール)、エージェントランタイム(役割ベース、直接のツールアクセスなし)、MCPゲートウェイ(ツールへの唯一の経路)。

スタック: React + TypeScript、FastAPI、SQLite WAL、プラグイン可能なLLMプロバイダ(OpenAI、Anthropic、Azure)、MCPプロトコル。

設定可能: 異なるチーム向けプリセット(ソフトウェア、マーケティング、カスタム)、異なる統治ルールを持つ運用モデル、プラグイン可能なLLMバックエンド、再利用可能なスキル、MCPに基づく連携。

みなさん、ぜひこの点についてご意見を聞かせてください。そして、あなたが使うのに面白いと思えるかどうか教えてください

submitted by /u/ramirez_tn
[link] [comments]