「やるつもりだったのに!」AIベンダー、脆弱性の責任をはぐらかす

The Register / 2026/4/19

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisIndustry & Market Moves

要点

  • 記事は、AIベンダーの中には製品や提供物に脆弱性が見つかった際、責任をそらす動きがあると主張しています。
  • ブレを取りながら責任の所在を先送り(あるいは押し付け)する姿勢は、AI業界の一部にセキュリティ面での成熟度が欠けていることを示していると指摘しています。
  • こうした対応は、顧客やインテグレーター、さらに下流のシステム全体にまたがるリスク管理にとって問題だと論じています。
  • 総じて、AI関連の脆弱性に対するベンダーのより強い責任と、明確なセキュリティ実務の必要性を浮き彫りにしています。

やるつもりだったんだ!AIベンダーは脆弱性の責任をよそに流す

責任も非難も先へ先へと押し流すやり方は、AI企業の成熟度の欠如を示している

Sun 19 Apr 2026 // 11:07 UTC

OPINION AIベンダー:「AIを使ってAIの脅威に対抗する必要があります(そして、あなたの企業のIT環境にある他のあらゆることも全部やってください。)」。そしてAIベンダー:「それはセキュリティ上の欠陥ではありません。意図したとおりに動いているだけです。」

このパターンは、デジタルの誇大宣伝装置たちが企業に対して、あらゆることを(とりわけセキュリティ上の問題を検知して遮断することに関して)AIでやれと煽るにつれて、ますます一般的になってきました。つまり——AIそのものにセキュリティ上の欠陥が存在するまでは、です。そうなると「想定された挙動」や「設計上のリスク」だと言い出すのです。 

運が良ければ、当該のAI企業が責められるべき原因を、ドキュメント内でひっそりと新しいセキュリティ上の注意事項として公表するかもしれません。しかし根本の問題は直りません。たとえばプロンプトインジェクションのように、ベンダーはたとえそうしたいとしても、実際にはその欠陥を根本的に直せない場合があります。

最近のいくつかの事例が、この構図がどう展開するかを示しています。

研究者らは、GitHub Actionsと統合する3つの人気AIエージェントが、乗っ取られてAPIキーやアクセス・トークンを盗まれることがある仕組みを最近明らかにした。この3つのエージェントは、AnthropicのClaude Code Security Review、GoogleのGemini CLI Action、そしてMicrosoftのGitHub Copilotで、いずれのベンダーも発見に対してバグ報奨金を支払っています。

Anthropicは$100の懸賞金を支払い、重大度を9.3から9.4に引き上げ、ドキュメントの「セキュリティ上の考慮事項」セクションを更新しました。Googleは、この発見に対して$1,337の報奨金を支払いました。そしてGitHubは、当初「再現できない」として「既知の問題」だと呼んでいたにもかかわらず、最終的に開示を行った研究者に$500の賞金を支払いました。

ベンダーはいずれもCVEを割り当てず、公開のセキュリティ勧告も公表しませんでした。

別のバグハンティングチームが、AnthropicのModel Context Protocol(MCP)に組み込まれた設計上の欠陥を開示しました。チームによれば、この欠陥は最大で200,000台のサーバーを完全な乗っ取りの危険にさらすとのことです。

彼らは「繰り返し」Anthropicに根本原因のパッチを当てるよう求めましたが、そのたびにプロトコルは意図どおりに動作するのだと言われ続けたといいます。もっとも、MCPを使う個別のオープンソースツールやAIエージェントに対しては、(これまでに)10件の高・緊急の重大度のCVEが発行されているにもかかわらずです。 

根本的なパッチが、バグハンターの主張では、150,000万件超のダウンロードにまたがるソフトウェアパッケージ全体でリスクを減らし、何百万人もの下流ユーザーを保護できたはずだということです。

欠陥を直さなかった理由についてのAnthropicの見解は「期待される挙動」だったということです。「これはMCPのstdioサーバーが動作する仕組みの明確な一部であり、この設計は安全なデフォルトを表していないとは考えています」と、AI企業は研究者に伝えたそうです。 

つまり、またしても、こうした複雑で非決定的なAIシステムを守るための厄介な問題が、IT企業やエンドユーザーへと先送りされているということです。今回はその対象に、アプリやオープンソースプロジェクトで自社の中でAnthropicの公式MCPソフトウェア開発キットを使う開発者、さらに、このオープンソースのコードやAIツールを自社環境に取り込む企業のすべてが含まれます。

さらにもう少し視野を広げて一分考えると、AI企業による規制を制限するうえでの米国連邦レベルのAI規制が完全に欠けていることも注目に値します。にもかかわらず、そのうちの1社(Anthropic)は先週、自社の最新モデルがセキュリティ上の欠陥を見つけることにおいて非常に巧みであるため、一般に公開するのはあまりにも危険だと警告していました。他のどんな分野であっても、「うちの製品は皆を重大な危険にさらす」と人々に言いながら、無責任に運営を許されるなど想像しにくいです。

私が子どもたちに伝えようとしているのは、成熟して信頼を得るということは、自分の選択や行動に責任を持ち、自分の過ちを自分で引き受けるということだ、という考え方です。それには、自分が間違っていたと認めること、可能なら自分の過ちを修正すること、そして次はもっと良くできるように軌道修正することも含まれます。 

AI企業によるこうした「なりすまし(自分じゃない)」的な振る舞い――セキュリティは誰か別の人が解決すべき問題だと言って押し付けること――は、成熟の欠如を完全に示しています。あるいは、礼儀の常識すら欠けていると言ってもいいでしょう。顧客が同じ結論に至るまで、どれくらい時間がかかるのか、不思議でなりません。®

これに似た記事
×

さらに絞り込む(関連トピック)

詳細情報

共有
これに似た話題
×

より絞り込んだ話題

情報提供をお願いします

ニュースをお知らせください