Anthropicは、「慎重なAI企業である」という勝ち筋の考え方を軸に、自社の公開イメージを構築してきました。AIリスクに関する詳細な取り組みを公表し、この分野の中でも屈指の研究者を採用し、これほど強力な技術をつくるにあたって伴う責任についても声高に語ってきたのです。もちろん、その声は今まさに国防総省と徹底的に争っているほどです。火曜日の時点で、あいにく誰かがチェックボックスを一つ確認し忘れたようです。
注目すべきは、これが一週間のうちに2回目だということです。先週木曜日、Fortuneは、Anthropicが誤って約3,000件の社内ファイルを一般に公開してしまったと報じました。そこには、同社がまだ発表していない強力な新モデルについて説明する下書きのブログ投稿も含まれていました。
火曜日に何が起きたのかを説明します。AnthropicがClaude Codeソフトウェアパッケージのバージョン2.1.88をリリースした際、ほぼ2,000件のソースコードファイルと、512,000行を超えるコードが露出してしまったのです。これは要するに、同社の最重要プロダクトの一つに関する、ほぼ完全なアーキテクチャ設計図そのものでした。セキュリティ研究者のChaofan Shouはほぼ即座にそれに気づき、Xでその旨を投稿しました。複数の取材先に対するAnthropicの説明は、この手の話としては拍子抜けするほど淡々としたものでした。「これは人為的なミスによって起きたリリース用のパッケージングの問題であり、セキュリティ侵害ではありませんでした。」(社内的には、もう少し慎重だったのでは、と推測します。)
Claude Codeは小さな製品ではありません。開発者がAnthropicのAIを使ってコードの作成や編集を行える、コマンドラインツールであり、ライバルを落ち着かせるほどの存在感を持つようになっています。WSJによれば、OpenAIは、動画生成プロダクトのSoraを止めたとのことです。Soraは一般向けに公開してからわずか6か月で、開発者やエンタープライズに注力するために方向転換した──その背景には、Claude Codeの勢いが増していることへの対応も一部あるとされています。
漏れたのは、AIモデルそのものではありませんでした。モデルの振る舞い方、どのツールを使うべきか、そしてどこに限界があるのかを指示する、その周辺のソフトウェアの土台(足場)です。開発者たちは、ほぼ即座に詳細な分析を公開し、そのうちの一つではこの製品を「単にAPIのラッパーではなく、実運用レベルの開発者体験」だと説明していました。
これが、何らかの形で長期的に意味を持つかどうかは、最終的には開発者に委ねるのがよい問いでしょう。競合企業はアーキテクチャを参考にするかもしれませんが、同時にこの分野は動きが非常に速いのです。
いずれにせよ、Anthropicのどこかで、非常に有能なエンジニアが一日を費やして、自分の職がまだあるのかどうかを静かに考えている光景が目に浮かびます。せめて、先週末の時点で問題を起こしたのと同じエンジニア、あるいは同じ開発チームではないことを願うばかりです。




