Key Takeaway: AI SRE(AI Site Reliability Engineer)とは、自律型のAIエージェントであり、アラートをトリアージし、インシデントを調査し、根本原因分析を行い、人の手順指示なしにポストモーテム(事後分析)を作成します。ガートナーの予測では、2029年までに70%の企業が、ITインフラを運用するためにエージェント型AIエージェントを導入する見込みで、これは2025年の5%未満からの大幅な増加です。このガイドでは、AI SREが実際に何をするのか、AIOpsや従来のSREとの違い、そして2026年に利用可能な商用・オープンソースのツールをどう評価するかを説明します。
AI SREとは、自律型のソフトウェアエージェントであり、サイト信頼性エンジニアリングの業務――アラートのトリアージ、インシデント調査、根本原因分析、ポストモーテム生成、一部ではガイド付きの是正措置――を、大規模言語モデルと本番運用用のツール群を用いて、最小限の人手指示で実行します。チャットボットやコパイロットとは異なり、AI SREは何を調査するか、どのシステムを問い合わせるか、そして得られた知見をどう統合して実行可能な成果につなげるかを判断します。
このカテゴリーは2026年に明確化されました。Microsoftは2026年3月10日にAzure SRE Agentを一般提供開始しました。Komodorは、ガートナーの2026年の「AI SREツール」に関するマーケットガイドで代表ベンダーに選ばれたと報告しています。Aurora、K8sGPT、HolmesGPTのようなオープンソースの選択肢も、商用プラットフォームに対する信頼できる代替として登場しました。
AI SREとは何ですか?
AI SRE(AI Site Reliability Engineer)とは、自律型のAIエージェントであり、SREの業務――アラートのトリアージ、インシデント調査、根本原因分析、ポストモーテム生成、ガイド付きの是正措置――を、手順をひとつずつ指示する必要なく実行します。
AI SREを、それ以前の世代の運用ツールと分ける3つの特性があります。
- 自律性。 AI SREは、どのツールを使うか、どのデータを収集するかを判断します。これは事前定義された手順を実行するランブックではなく、特定のアラートに基づいて複数ステップの調査を計画するエージェントです。
- 本番へのアクセス。 AI SREは、要約だけで作業するのではなく、実際のインフラのシグナル――メトリクス、ログ、トレース、Kubernetesイベント、クラウドAPIの応答、デプロイ履歴――を読み取ります。
- 統合(シンセシス)。 AI SREは、根本原因分析、タイムライン、影響範囲(ブラスト半径)の評価、ポストモーテム、または是正措置のPRなど、構造化された出力を作成します。「エラー率が高い」という段階で止まりません。
なぜ2026年にAI SREが登場したのか
AI SREを実現可能にした条件は、2024年から2026年の間にそろいました:
アラート量が人の処理能力を上回った。 PagerDutyの「State of Digital Operations」のデータによれば、平均的なオンコールエンジニアは週に約50件のアラートを受け取っており、実際に人が介入する必要があるのは2〜5%にすぎません。OneUptimeが引用した2024年のCatchpoint調査では、70%のSREチームが、アラート疲れ(alert fatigue)を運用上の懸念事項の上位3つに挙げていることが分かりました。
マルチクラウドが標準になった。 Flexera 2025 State of the Cloud Reportによると、組織は平均2.4のパブリッククラウドプロバイダを利用しており、70%はハイブリッドクラウド戦略を運用しています。AWS、Azure、GCPにまたがるインシデントを手作業で相関付けすることは、ますます現実的でなくなっています。
変更のスピードが信頼性ツールの改善より速くなった。 2025 DORA State of AI-Assisted Software Development reportでは、AIコーディング支援者がデリバリーを加速させた一方で、インシデント対応能力がそれに見合って改善しなかったため、PRあたりのインシデント数が242.7%増加したことが報告されています。
LLMツール利用が成熟した。 LangGraphのようなエージェントフレームワークにより、言語モデルに30以上のツールを与え、それらを連鎖させて筋の通った調査へつなげることが実用的になりました。Claude、GPT-5、Gemini 2.5+は、構造化されたツール利用において十分な信頼性を達成し、読み取り専用の本番アクセスを任せられるほどになりました。
ガートナーがカテゴリーを定義した。 Predicts 2026: AI Agents Will Transform IT Infrastructure and Operationsにおいて、ガートナーは、2029年までに70%の企業が、ITインフラを運用するためにエージェント型AIを導入すると予測しました。これは2025年の5%未満からの増加です。
AI SREはどのように動作するのか?
AI SREは、受信するすべてのアラートに対して再現可能なループを回します:
- アラートの取り込み。 監視ツール(PagerDuty、Datadog、Grafana、BigPanda)がウェブフックを発火します。AI SREはペイロードを受け取り、人がページを認識(acknowledge)するのを待つことなく調査を開始します。
- 文脈(コンテキスト)の収集。 エージェントは直近の状態を読み取ります。ポッドの状態、メトリクストレンド、デプロイ履歴、直近の設定変更、一定の時間枠内の関連アラートなどです。
- 仮説の形成。 アラートの意味(セマンティクス)と収集した文脈を使って、エージェントは1つ以上の候補となる原因を提案します。
-
証拠の収集。 エージェントは自身のツールの在庫から選択します。たとえば
kubectl describeの実行、メトリクスの問い合わせ、過去のポストモーテムを格納したベクトル知識ベースの検索などにより、それぞれの仮説を検証します。 - 根本原因の統合。 エージェントは構造化されたRCA(根本原因分析)を作成します。何が失敗したのか、なぜ失敗したのか、ブラスト半径はどの範囲か、どのサービスが影響を受けるのか、そして直近の変更が原因になった可能性があるかどうか。
- 是正措置(任意)。 一部のAI SREは提案(recommendations)で止まります。その他はPRを生成したり、デプロイをロールバックしたり、サービスを再起動したりします。通常、破壊的な操作は人の承認ゲートの背後で実行されます。
- ポストモーテムの生成。 エージェントはタイムライン、寄与要因、影響、アクションアイテムを含むポストモーテム草案を組み立て、人のレビューに備え、Confluenceなど別のドキュメントシステムへエクスポートできる状態にします。
信頼できるAI SREは、このループについて透明性を持ちます――検討した証拠、除外した仮説、そして最終回答に対する確信度を提示します。
AI SREと従来のSREとAIOps
この3つのカテゴリはしばしば混同されますが、解決しようとする問題は異なります。
返却形式: {"translated": "翻訳されたHTML"}| 観点 | 従来のSRE | AIOps | AI SRE |
|---|---|---|---|
| 主な機能 | 人間のエンジニアが信頼性を管理する | 異常検知、アラート相関 | 自律的なインシデント調査とRCA |
| 調査 | 手作業(人がログを読み、システムにクエリを投げる) | 関連しそうなアラートを提案する | エージェントが複数ステップの調査を実行する |
| 根本原因分析(RCA) | 数時間。エンジニアの専門性に依存する | 相関の手がかりは出すが、因果は断定しない | 数分で構造化されたRCA |
| ツールの利用 | エンジニアが kubectl、aws CLI、ダッシュボードを実行する | 事前に取り込まれたテレメトリを読む | 20〜40以上のツールから動的に選択する |
| 是正(Remediation) | 人が主導 | 通常は提案のみ | エージェントによる実行(多くの場合、承認ゲート付き) |
| ナレッジ共有 | ランブック、暗黙知 | アラート相関モデル | RAGでランブックと過去のポストモーテムを参照する |
| 中核技術 | 人間+監視ダッシュボード | 異常検知のためのMLモデル | ツール呼び出しを備えたLLMエージェント |
短く言うと:AIOpsは何が異常かを教えてくれます。AI SREはなぜ起きているのかを教え、そしてますます、それを修正まで行います。 従来のSREは、この2つのカテゴリを補強する人間の領域です。
AI SREにはどんな能力が必要ですか?
2026年の本気度の高いAI SREは、共通した能力スタックを持っています:
自律的な複数ステップ調査
そのエージェントは、人間がツールを選んだり、ステップ間でデータを渡したりしなくても、調査を計画し実行できる必要があります。単なるツール呼び出しでは不十分です。エージェントにはステップ間にまたがる記憶と、証拠が届くにつれて仮説を修正する能力が必要です。
安全に実行できる幅広いツールアクセス
kubectl、aws、az、gcloud、メトリクスのクエリ、ログ検索、デプロイ履歴、IaCの状態。ツールがどう実行されるかが重要です:エージェントホスト上で kubectl を実行するのは本番リスクです。たとえばAuroraは、エージェントホストではなく、サンドボックス化されたKubernetesポッド内で、実行ごとの認証情報スコープを適用してCLIコマンドを実行します。
クラウド横断・プラットフォーム横断の到達力
Flexeraの2025年平均が「組織あたり2.4のパブリッククラウド」だとすると、AWSの中だけ、あるいはKubernetesの中だけで動くAI SREでは、実際のインシデントの大半を取り逃がします。
ナレッジベースの取得
過去のポストモーテム、ランブック、ドキュメントを、ベクトル検索(RAG)によってエージェントが検索できること。シニアSREが積み上げてきた知識は、初日からエージェントが利用できるべきです。
インフラ依存関係グラフ
データベースが失敗したとき、エージェントは「それに依存しているサービスがどれか」を把握する必要があります。Memgraphのようなグラフデータベースは、サービス間・クラウド間の関係をモデル化する際の一般的な選択肢です。
ポストモーテム生成
構造化されたタイムライン、寄与要因、影響範囲(blast radius)、アクションアイテム――調査中に生成され、後から手作業で書くのではありません。
ガードレール付きの是正(Remediation)
PRの生成、デプロイのロールバック、サービスの再起動。破壊的なアクションは、人間の承認を必要とするべきです。v1.1.0で追加されたAuroraのBitbucketコネクタは、エージェントが書き込む前に明示的な人間の承認を要求します。
LLMの柔軟性
OpenAI、Anthropic、Google、そしてOllama経由のローカルモデルで、エアギャップ環境に対応します。モデルの品質や価格が急速に変わるため、LLMベンダーへのロックインは現実的なリスクです。
2026年のAI SREの状況
コマーシャル(商用)プラットフォーム
- Azure SRE Agent — Microsoftのファーストパーティエージェント。2026年3月10日以降、一般提供が開始されています。Azureへの深い統合に加え、「レビュー推奨」から「完全自動」まで自律性を調整可能。Azure Agent Unitsで従量課金します。
- Rootly AI SRE — 成熟したインシデント管理プラットフォームの上に構築されたAIレイヤー。推論の連鎖(chain-of-thought)を透明化。2022年1月からSOC2に対応。テレメトリには外部の監視(オブザーバビリティ)ツールに依存します。
- Komodor Klaudia — Kubernetesに特化したAI SRE。Komodorは、Klaudiaが現実のインシデントシナリオで95%の精度を達成していると報告しています。また、KomodorはGartnerの2026年の「AI SREツール」マーケットガイドにおいてRepresentative Vendor(代表ベンダー)に選定されたとしています。
- incident.io AI SRE — インシデント対応プラットフォームに統合されたマルチエージェントのAI調査。コード修正の提案が含まれます。
- Traversal — 因果MLを用いた大規模分散システムに焦点を当てています。TraversalはDigitalOceanにおいてMTTRを38%削減したと報告しています。オンプレ対応および「持ち込みモデル(bring-your-own model)」をサポートします。
- Resolve.ai — ガードレール付きで高い自律性による解決へと推し進めています。
オープンソースのAI SREオプション
- Aurora — Apache 2.0、セルフホスト型、マルチクラウド(STS AssumeRoleでAWS、Service PrincipalでAzure、GCP、OVH、Scaleway、Kubernetes)。LangGraphでオーケストレーションするエージェント(30以上のツール)、Memgraphの依存関係グラフ、WeaviateによるRAG、Confluenceへのポストモーテム書き出し、GitHubとBitbucketによるPR生成。あらゆるLLM(OpenAI、Anthropic、Google、OpenRouter、Ollama)で動作します。
- K8sGPT — Kubernetesクラスターをスキャンし、失敗の理由を平易な英語で説明するためのオープンソースCLI。フルのAI SREよりも範囲は狭くなっています。
- HolmesGPT — Kubernetes、Prometheus、ログ、SlackのワークフローをカバーするオープンソースのクロススタックSREエージェント。
- Coroot(Community Edition) — Kubernetesのオブザーバビリティに加えてAI支援によるRCA。Community Editionは無料で、商用ティアは「監視対象のCPUコア1つあたり月1ドル」から、価格を透明に提示しています。
オープンソース vs 商用AI SRE
| 考慮事項 | オープンソース | 商用 |
|---|---|---|
| データレジデンシ | 完全にセルフホスト;インシデントデータは環境内にとどまる | 通常はSaaS;インシデントデータは自社の境界の外へ出る |
| コストモデル | 無料ソフトウェア;インフラとLLM APIの利用料金を支払う | ユーザー単位またはインシデント単位の料金 |
| LLMの選択 | Ollama経由のローカルを含め、任意の提供元を持ち込める | しばしばバンドル、または制限がある |
| 監査の透明性 | ソースコードが利用可能;エージェントの振る舞いを監査できる | 通常ブラックボックス |
| サポートとマネージド運用 | コミュニティ+セルフマネージド | ベンダーのサポート、SLA、マネージドインフラ |
| 導入までの時間 | より長い—セルフホストにはセットアップコストがかかる | より短い—SaaSのオンボーディング |
| カスタマイズ | フォーク、変更、ツールの追加 | ベンダーが公開している範囲に限定される |
規制産業(金融、医療、政府)であること、エアギャップ環境での導入、またはすでに自社でKubernetesを運用しているチームにとっては、オープンソースのAI SREはしばしば適切な選択です。最も速く価値を生み出すことを優先するチームなら、商用プラットフォームが勝ちます。
AI SREツールを評価する方法
2026年にAI SREを試験導入するなら、コミットする前に次の点を確認してください:
- エージェントは実際にどのようにコマンドを実行しますか? ホストプロセス、コンテナ、サンドボックス化されたポッドですか? 読み取り専用か書き込み可能か? どの資格情報(クレデンシャル)を使いますか?
- 今日、どのアラートを調査できますか? PagerDuty、Datadog、CloudWatchなど、統合先を名前で指定して依頼し、独自のアラートペイロードでテストしてください。
- 間違った場合はどうなりますか? 自信が低い回答をどのように提示しますか? 収集した証拠を見ることはできますか?
- マルチクラウドに対応できますか? 複数のクラウドで運用している場合、提供元をまたいで相関付けできますか、それとも各クラウドを個別に調査しますか?
- 過去のインシデントから学習しますか? 既存のランブックやポストモーテムを取り込みますか? どのようにですか?
- リメディエーション(復旧)のモデルは何ですか? 提案のみですか? 人の承認が必要なPRですか? 直接実行ですか? ガードレール(制御・安全策)はどこにありますか?
- どのLLMを使うのか—そして変更できますか? LLMのコストと品質は変化が速いです。ロックインはリスクです。
- インシデントデータはどこに送られますか? セルフホストか、ベンダーのクラウドか、LLM提供元か? データフローを慎重に確認してください。
2026年におけるAI SREの限界
このカテゴリは現実のものですが、万能薬ではありません:
- 新しい障害パターン。 エージェントは、過去のインシデントに似たパターンの認識が得意です。本当に新しい失敗は、依然として人間の判断が必要になることが多いです。
- 組織に起因する根本原因。 「デプロイパイプラインが環境変数を検証していない」という類の根本原因は、AI SREが提示し得ます。しかし「このサービスを維持するための人員が足りない」というのはそうではありません。
- 規模に応じたLLMコスト。 複雑な調査では、数百回のLLM呼び出しを消費することがあります。Ollamaによるローカル推論はこれを緩和しますが、GPUのインフラが必要です。
- ツールのカバレッジ不足。 AI SREは、備わっているツールで調査できる範囲にしか対応できません。レガシーシステム、社内のツール、珍しいスタックには、カスタムコネクタが必要です。
- 信頼を築くには時間がかかる。 チームは通常、まずエージェントを「observe(観察)」モードで開始し、「suggest(提案)」へ段階的に進め、その後ようやく自律的な復旧を有効化します。
DORA 2025レポートが示唆に富みます。AIはスループットを改善しますが、強力なプラットフォームエンジニアリングの土台がないチームでは不安定さを増やす可能性があります。AI SREツールは、壊れたものを直すよりも、既存の実践を増幅する傾向があります。
自チームでAI SREを試験導入する方法
低リスクの試験導入には6つのステップがあります。エンドツーエンドで4〜6週間かかると見込んでください。
- 1つのサービスと1つのアラートソースを選ぶ。 すべてを一度にカバーしようとしないでください。チームがよく理解しているサービスと、すでに使っているモニタリングツールを選びます。
- AI SREを読み取り専用モードでデプロイする。 アラート、読み取り専用のクラウド資格情報、および既存のオブザーバビリティツールに接続します。書き込み権限はまだ付与しないでください。
- 2週間実行し、人手のRCAと比較する。 エージェントに、発報するすべてのインシデントを調査させます。根本原因の結論を、最終的に当番エンジニアが判断した内容と比較してください。
- 精度とRCAまでの時間を測定する。 重要なのは2つの指標です。エージェントの根本原因は正しかったか? 人間よりどれだけ速かったか?
- スコープを段階的に拡張する。 追加のサービスを加え、復旧の提案を有効化します。その後(信頼が確立されてからのみ)、特定の低リスクパターンに対する承認済みの自動アクションを有効化します。
- 過去の文脈を投入する。 既存のランブックと過去のポストモーテムを、エージェントのナレッジベースに取り込みます。組織の記憶(メモリ)があることで、エージェントは劇的に有用になります。
Auroraで始める
Auroraは、Arvo AIによって開発されたオープンソース(Apache 2.0)のAI SREです。AWS、Azure、GCP、OVH、Scaleway、Kubernetesにまたがるインシデントを自律的に調査し、PagerDuty、Datadog、Grafana、Slack、Bitbucket、Confluenceなど22以上のツールと統合します。
git clone https://github.com/Arvo-AI/aurora.git
cd aurora
make init
make prod-prebuilt
Auroraは、どんなLLM提供元とも連携できます—OpenAI、Anthropic、Google Gemini、OpenRouter、またはエアギャップ環境向けのOllama経由のローカルモデルです。詳細は完全なドキュメント、またはarvoai.caでの元の記事をご覧ください。
この記事はもともとarvoai.caに掲載されました。




