AIを使ってコードを書くことは、コードがより安全になることを意味しない

The Register / 2026/3/27

💬 オピニオンDeveloper Stack & InfrastructureIdeas & Deep AnalysisTools & Practical Usage

要点

  • この記事は、AIコーディングアシスタントを使うことがソフトウェアを本質的により安全にしたわけではなく、安全性は最終的に検証、レビュー、そしてエンジニアリングの実践に依存すると論じている。
  • AIが生成したコードの導入が急増するにつれ、そのコードに関連して報告される脆弱性も増えている点を指摘している。
  • その文章では、AI支援による開発が不安全なパターンや欠陥を生み出しうる一方で、適切なテストやセキュリティに関するガイダンスがなければ見落とされるリスクがあることを強調している。
  • 組織はAIコードを「セキュリティ保証」ではなく「生産性向上のための支援」として扱うべきだと示唆し、安全なコーディングレビュー、静的解析、テストの必要性を改めて訴えている。
  • 全体的な結論として、人間が書くコードであってもAIツールが提案するコードであっても、セキュリティの成果は意図的なプロセスにより実現される必要がある。

AIを使ってコードを書くことは、コードがより安全になることを意味しない

AIコーディング支援の利用は急増したが、AI生成コードにおける脆弱性の数も同様に増えている

2026年3月26日(木) // 19:38 UTC

より多くの人がAIツールを使ってコードを書こうとするほど、そのツール自体がより多くの脆弱性を持ち込んでいます。

Georgia Tech SSLabに所属する研究者らは、AI生成コードの欠陥に起因するとされるCVEを追跡してきたところです。 

昨年8月、彼らはClaude Codeに確実に結び付けられる可能性のあるCVEをわずか2件見つけました。— CVE-2025-55526 はn8n-workflowsにおける深刻度9.1のディレクトリトラバーサル脆弱性、そして GHSA-3j63-5h8p-gf7c はx402 SDKにおける不適切な入力処理の不具合です。

3月には、彼らは35件のCVEを特定しました。そのうち27件はClaude Codeによって作成され、4件はGitHub Copilot、2件はDevin、そして各1件ずつがAetherとCursorでした。

Claude Codeが不釣り合いに多く(過剰に)表れているように見えるのは、最近の人気急上昇に起因するのではないかと考えられます。過去90日間で、ソフトウェアエンジニアのJodan Albertsが作成した分析サイト「Claude's Code」によれば、Claude Codeは公開リポジトリに30.7 billion行以上のコードを追加しています。

Georgia Techの研究者らは2025年5月1日から計測を開始し、2026年3月20日時点で、CVEスコアカードは次の通りです。 

  • Claude Code:49(重大11)
  • GitHub Copilot:15(重大2)
  • Aether:2
  • Google Jules:2(重大1)
  • Devin:2
  • Cursor:2
  • Atlassian Rovo:1
  • Roo Code:1

分析した43,849件のアドバイザリのうち、AIが作成したコードに起因するとされるCVEは74件です。

ジョージア工科大学SSLabの研究者であるHanqing Zhao氏は、メールでThe Registerに対し、こうしたAI CVEは「比率」ではなく「下限」として見られる可能性がある、と述べた。

「この74件は、AI生成コードが脆弱性に寄与したという明確な証拠を私たちが見つけたことが確認できた事例です。」と同氏は語った。「それが、残りの約5万件が人間によって書かれたという意味ではありません。つまり、それらの事例ではAIの関与を検出できなかったということです。

「OpenClawを例に挙げます。これは300件以上のセキュリティ勧告(アドバイザリ)を持ち、かなり“ノリと勢い”でコード化されたように見えますが、ほとんどのAI痕跡は取り除かれています。AIの明確なシグナルがあり、確信をもって確認できるのは、約20件にとどまります。こうしたプロジェクトを基にすると、実際の数は、私たちが現在検出できている数の5〜10倍である可能性が高いと見積もっています。」

Zhao氏は、CVEの件数は、数が少ないからといってAIコードツールがより安全なコードを提供しているサインとして読み取るべきではない、と述べた。

「Claude Codeだけでも、GitHub上の公開コミットの4%超に出てきているようです。」と同氏は説明した。「仮にAIが、公開されている脆弱性5万件のうち74件にしか本当に責任がないのであれば、AIが生成したコードは、人間が書いたコードよりも桁違いに安全だということになります。私たちはそれが信頼できるとは思いません。」

少ない件数について同氏は、「それは、優れたAIコードの品質を反映しているのではなく、検出上の盲点を反映しているのです。」と述べた。

ジョージア工科大学の調査結果は、2024年11月にジョージタウン大学のCenter for Security and Emerging Technologyが発表した研究を後押しするものだ。

GPT-3.5-turbo、GPT-4、Code Llama 7B Instruct、WizardCoder 7B、Mistral 7B Instructを用いたテストに基づき、ジョージタウン大学の研究者らは「5つのモデルすべてにおいて、生成されたコード断片の約48%はコンパイル可能でしたが、ESBMC [効率的なSMTベースのコンテキスト境界モデルチェッカー]でフラグが立つバグを含んでいました。私たちはこれを『不安全なコード』として定義しています。」と見つけた。

生成されたコード断片の約30%はESMBCの検証に合格し、安全だと判定された。

Zhao氏は、コミットされるAI生成コードの量が急増していると言う。「エンドツーエンドのコーディング・エージェントが、まさに今立ち上がっています。」と同氏は説明した。「Claude Codeだけで、GitHub上の合計コミットが1,500万件を超え、公開コミット全体の4%以上を占めています。

「これは一部、AIツールを使う人が増えていることを反映しています。しかし、単にボリュームだけの話ではありません。人々の使い方が変わっているのです。1年前は多くの開発者がAIをオートコンプリート目的で使っていました。今では、人々はプロジェクト全体を“ノリと勢い”でコーディングし、ほとんど読んでいないコードを出荷しています。これは別のリスク特性です。」®

これに似た内容
×

より絞り込まれたトピック

より広い話題

詳細:

これに似た内容
×

より詳細な話題

より広いトピック