脆弱性リサーチは「調理」されてしまった

Simon Willison's Blog / 2026/4/4

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • この記事は、最前線のAIコーディングエージェントが、エクスプロイトの発見をより速く低コストにすることで、脆弱性リサーチを近い将来に劇的に変えるだろうと主張しており、その変化は数年ではなく数か月以内に起こり得るとしている。
  • LLMエージェントは、悪用(エクスプロイト)に特に適していると述べている。理由は、学習データからすでに幅広い相関関係を内包しており、一般的なバグの種類を認識でき、また広範な自動探索を実行できるためである。
  • この記事は、エージェントにソースツリーを分析させ、その後「ゼロデイ(未発見の脆弱性)」を特定するよう指示することで、高いインパクトを持つ重大な脆弱性が相当数見つかる可能性があると示唆しており、これによりリサーチがエージェント型のワークフローへと変わるという。
  • エクスプロイト開発は、LLMの強みと非常に相性が良いと説明している。具体的には、パターンマッチングに加えて、目的に対する成否テスト(成功/失敗)を用いた制約・到達可能性の推論を行うことで、退屈せずに継続的に探索できるという点である。
  • 著者は、この見方が、AnthropicのNicholas Carliniが登場するSecurity Cryptography Whateverポッドキャストのエピソードによって影響を受けたと述べている。
Sponsored by: WorkOS — Production-ready APIs for auth and access control, so you can ship faster.

3rd April 2026 - Link Blog

Vulnerability Research Is Cooked. Thomas Ptacek's take on the sudden and enormous impact the latest frontier models are having on the field of vulnerability research.

Within the next few months, coding agents will drastically alter both the practice and the economics of exploit development. Frontier model improvement won’t be a slow burn, but rather a step function. Substantial amounts of high-impact vulnerability research (maybe even most of it) will happen simply by pointing an agent at a source tree and typing “find me zero days”.

Why are agents so good at this? A combination of baked-in knowledge, pattern matching ability and brute force:

You can't design a better problem for an LLM agent than exploitation research.

Before you feed it a single token of context, a frontier LLM already encodes supernatural amounts of correlation across vast bodies of source code. Is the Linux KVM hypervisor connected to the hrtimer subsystem, workqueue, or perf_event? The model knows.

Also baked into those model weights: the complete library of documented "bug classes" on which all exploit development builds: stale pointers, integer mishandling, type confusion, allocator grooming, and all the known ways of promoting a wild write to a controlled 64-bit read/write in Firefox.

Vulnerabilities are found by pattern-matching bug classes and constraint-solving for reachability and exploitability. Precisely the implicit search problems that LLMs are most gifted at solving. Exploit outcomes are straightforwardly testable success/failure trials. An agent never gets bored and will search forever if you tell it to.

The article was partly inspired by this episode of the Security Cryptography Whatever podcast, where David Adrian, Deirdre Connolly, and Thomas interviewed Anthropic's Nicholas Carlini for 1 hour 16 minutes.

I just started a new tag here for ai-security-research - it's up to 11 posts already.

Posted 3rd April 2026 at 11:59 pm

This is a link post by Simon Willison, posted on 3rd April 2026.

security 593 thomas-ptacek 17 careers 73 ai 1947 generative-ai 1728 llms 1694 nicholas-carlini 10 ai-ethics 286 ai-security-research 11

Monthly briefing

Sponsor me for $10/month and get a curated email digest of the month's most important LLM developments.

Pay me to send you less!

Sponsor & subscribe