想像してください。とても賢く、速いAIが、世界的なコンサルティング巨頭の内部システムに、わずか2時間でハッキングできると。SFのようですね? それが現実に起きました。McKinsey & Company は、戦略的洞察と堅牢な運用で知られる名前で、最近画期的なセキュリティインシデントに直面しました。彼らの内部AIプラットフォームLilliは、人間のハッカーによってではなく、自律的な攻撃用AIエージェントによって侵害されました。開発元はセキュリティ企業CodeWallの技術。
これは典型的なデータ漏洩ではありませんでした。新時代のサイバーセキュリティのはっきりとしたデモでした: AI対AI。影響は甚大で、特にAIソリューションを構築・展開する開発者にとっては重要です。この出来事がどう起きたのか、そして私たちがそこから何を学べるのか、深掘りしていきましょう。
自律的攻撃の解剖学:AI流のSQLインジェクション
CodeWallのエージェントは、未来的で未知のエクスプロイトを使ったわけではありませんでした。古典的な脆弱性を悪用しました:SQLインジェクション。しかし肝心なのは、従来のセキュリティツールが見逃しがちな、機械のような正確さと速度をもってそれを行った点です。
以下が概要です:
- 扉を開く: エージェントは最初に公に公開されたAPIドキュメントを見つけ、22個の認証されていないエンドポイントを暴露しました。偵察の容易な入口となる重大な見落としです。
-
SQLiのひねり: 重要な欠陥はLilliがユーザー検索クエリを扱う方法にありました。クエリの値はパラメータ化されていました(良いこと!)、しかしJSONのキー(フィールド名)はSQLクエリに直接連結されていました。エージェントがこれらのJSONキーがデータベースのエラーメッセージに反映されているのを見たとき、SQLインジェクションの機会を知りました。
次のように考えてください(簡略化した例):
SELECT * FROM users WHERE {json_key} = 'value';If
json_keycould be manipulated, say toname' OR 1=1--, the query becomes:
SELECT * FROM users WHERE name' OR 1=1--;Boom! Full database access.
ブラインド・イテレーション: AIエージェントは、その後、データベース構造に関する情報を一連の盲検反復として体系的に実行し、ライブ生産データに至るまで、各反復でより多くの情報を抽出しました。