Claudeへの攻撃はインフォセック界の「ロールシャッハ・テスト」だった—元NSA長官が恐れた理由

The Register / 2026/3/24

💬 オピニオンSignals & Early TrendsIdeas & Deep Analysis

要点

  • この記事は、最近の「Claude」攻撃がインフォセック・コミュニティにとって「ロールシャッハ・テスト」のような役割を果たし、AI駆動の探索による圧力の下で、守りの多様性と不完全さがどのように露呈するかを示したと論じています。
  • 元NSA長官のRob Joyceの発言を引用し、その結果を「効果があった(it freakin’ worked)」と表現しており、たゆまぬAIエージェントが、人間が見落としがちな弱点を突き止められることを強調しています。
  • この記事は、これらの攻撃をセキュリティ上の前提に対するストレステストとして位置づけ、攻撃者のツール群には自律的または半自律的なAI行動がますます含まれてきていることを示唆しています。
  • この出来事は、セキュリティ責任者に恐れを抱かせ、AIを活用した侵入試行に対する脅威モデル、監視、そして緩和策を見直すべきだとしています。
  • 全体として、この記事は、防御チームが、AI支援を受けた攻撃者が組織や人的要因に対して素早く適応しうる点から得るべき教訓を強調しています。

Claude の攻撃は「ロールシャッハテスト」だった――旧 NSA 首脳を怖がらせた情報セキュリティ界隈

「超うまくいった」と Rob Joyce――そして、人間が見落とす穴を執拗な AI エージェントが見つけられることを示す

Mon 23 Mar 2026 // 22:50 UTC

RSAC 2026 いまや悪名高い Anthropic の報告――中国のサイバースパイが Claude AI を悪用してサイバー攻撃を自動化している、という内容は、旧 NSA のサイバー責任者 Rob Joyce によれば、情報セキュリティ業界に対するロールシャッハテスト(=見た人の解釈が浮き彫りになる試し)だった。

「片側にはそれを嫌っている人たちがいたんです」と、現在は DataTribe のベンチャー・パートナーである Joyce は、RSAC での月曜の講演中に語った。「意味のない気晴らしだと思っていた。ところが別の側には、それを“攻撃的な作戦”についての重要な洞察だと見た人たちがいた。」

Joyce ははっきり後者側だ。「私は、これは本当に重要な一連の洞察だ――そして、かなり怖いものだと見ました。」

北京を後ろ盾にする“盗み見”の相手は、典型的な攻撃チェーンを検討し、それを小さな手順に分解したうえで、エージェント型 AI を使った枠組みを構築し、侵入の試みを実行した。エージェントは攻撃対象の“攻撃面”をマッピングし、標的組織のインフラをスキャンして、脆弱性を見つけ、さらに研究して、悪用(エクスプロイト)コードを作成し、書き起こした。

侵入後、中国のボットは有効な認証情報を見つけて悪用し、権限をエスカレーションし、横方向に移動した。場合によっては、エージェントが機密データを見つけて盗み出したことさえあった。

マシンはコードを読むのに疲れません。脆弱性が見つかるまで、何度も何度も見直せます。

「でも私にとって一番大事なのは、これが“うまくいった”ことです。超うまくいった。」と Joyce は言った。「一連のツールを持ち込み、現実世界のターゲットに対して実行して、それが勝った。」 さらに彼は、LLM の改良が続くこと、そして今では実質的にモジュール化されているため悪党が AI ツールを素早く更新できることを踏まえ、こうした自動化攻撃は「指数関数的に」改善していくのではないかと懸念する。

昨年、The Register のインタビューで Joyce は「AI は“いずれ”優れたエクスプロイト作成者になる」と述べた。月曜には、セキュリティの専門家やコーダーに向けて、そのことはすでに起きた、と伝えた。

良い面は? エージェント型 AI の「ゼロデイ脆弱性を見つけ、機械の速さでエクスプロイトを開発できる」能力は、防御側にとっても大きな追い風になり得る。

たとえば Google の Big Sleep は、セキュリティ研究者がゼロデイの不具合を見つけるのを助ける AI エージェントだが、これまでに複数の成果が報告されている。中には、広く使われている OpenSSL ライブラリにおける、これまで知られていなかった 悪用可能なメモリ安全性の欠陥 も含まれる。OpenAI の Codex(旧 Aardvark)も同様に、エージェント型 AI を用いてコードの脆弱性を検出し、修正する。Anthropic の Clade Code Security もそうだ。

「つまり、これら“最前線”の3つのモデルは、すべて脆弱性研究をしているわけですが、大きなコードの中から脆弱性を見つけられることを示してきました。」と Joyce は語った。

「長期的には、コードはずっと良くなります。Google Chrome は Google の Big Sleep チームの恩恵を受けることになり、地球上で最も人気のある Web ブラウザを悪用するのはずっと難しくなる。けれど短期的には、大規模なコードベースや脆弱性の“発見”から、それが“エクスプロイト”になるまでの能力が、という意味でこれは本当のリスクです。」

Joyce は、OpenAI の当時の Aardvark プロジェクトを分析したセキュリティ研究者 Sean Heelan の発言を引用し、「said」と続けた:

消費するトークンが多いほど、見つかるバグも増え、しかもそのバグの質も高くなります。これは私の実験でも確認できます。課題が難しくなるにつれて、解決策を見つけ続けるために、ますます多くのトークンを使えるようになりました。最終的に制約要因になったのはモデルではなく、私の予算でした。これが LLM によって“工業化”されない方が不思議だと思います。

Joyce によれば、現時点でこれが意味するのは、情報の非対称性によって“機械側の攻撃者”が有利になるということだ。「これは“AI が人間より賢い”という話ではありません。スケールと忍耐の問題です。つまり、[AI] があらゆる手法や構成要素を見て、その中から脆弱性を開発できる能力のことです。マシンはコードを読むのに疲れません。脆弱性が見つかるまで、何度も何度もレビューできます。」

では、防御側にとってこれは何を意味するのか。Joyce は、防御側はセキュリティの“基礎”で「卓越した存在」になる必要があると考えている。

つまり、AI ツールを使ってコードをレビューし、パターンやふるまいの異常を検出することだ。これによって、攻撃者が正当なツール――あるいはユーザー――を悪意ある目的で悪用していることを示唆できる。

また、Joyce は、組織に対してエージェント型のレッドチーミングを始め、先回りして欠陥や設定ミスを見つけるよう勧めています。 「あなたは、支払うかどうかに関係なくレッドチームに狙われることになります」と Joyce は言いました。「違いがあるのは、つまり、結果を誰が受け取るかだけです。」 ®

More like these
×

Narrower topics

詳細はこちら

これらに近い内容
×

関連する話題(絞り込み)