Anthropicの「Mythos」で不正アクセス報道、セキュリティ懸念が拡大

Dev.to / 2026/4/22

📰 ニュースDeveloper Stack & InfrastructureSignals & Early TrendsIndustry & Market Moves

要点

  • アンソトロピック(Anthropic)は、未リリースの「Claude Mythos Preview」モデルに対し、第三者ベンダー環境を通じて少数の不正ユーザーがアクセスした可能性があるとの報道を調査しています。
  • 想定される不正アクセスは、同社が選定企業向けにMythosの限定的かつ統制されたテスト提供を発表した時期とほぼ重なっており、提供プロセス全体のセキュリティ整合性に懸念が持たれています。
  • 本件は、最先端のAIモデルが関与する場合に、AIデプロイでのサプライチェーンやインフラ面のリスクが顕在化し得ることを浮き彫りにしています。
  • 「Claude Mythos」は「Project Glasswing」の一環で、防御的サイバーセキュリティ能力(脆弱性の特定やセキュアなコード解析など)を評価するための制限付きモデルです。
  • 高度な推論やサイバー関連タスクに対応できるシステムでは、モデルそのものだけでなく周辺のエコシステム全体を守ることが重要であり、デュアルユースの可能性も踏まえる必要があることを示しています。

急速に進化するAIの環境では、管理された導入であっても、予期しないセキュリティ上の課題に直面することがあります。

アンスロピックは現在、非公開のClaude Mythos Previewモデルに対して、小規模な不正ユーザーの集団がアクセスできていた可能性があるという報告を調査しています。このモデルは、厳格なセキュリティ条件のもとで制限付きのテストを行うために設計された、高い能力を備えたシステムです。

この事案は、特に高度な推論、コーディング、サイバーセキュリティ関連のタスクをこなせる可能性がある「フロンティアAI」システムをどのように保護するかについて、懸念が高まっていることを示しています。

何が起きたのか

ブルームバーグ・ニュースの報道(社内文書を引用し、状況を知る関係者を情報源としている)によると、プライベートなオンライン掲示板で少数のユーザーが、認可なしにMythosモデルにアクセスできたとされています。

報道によれば、このアクセスはサードパーティのベンダー環境を通じて行われた可能性があり、AI導入パイプラインにおけるサプライチェーンおよびインフラのセキュリティに関する疑問を提起しています。

興味深いことに、不正アクセスは、アンスロピックが管理されたテスト条件のもとで選定された企業に対しMythosへの限定アクセスを公式に発表したのとほぼ同じ時期に始まっていたようです。

アンスロピックの対応

アンスロピックは、この状況は調査中だと確認し、次のように述べています。

「当社のサードパーティ・ベンダー環境のいずれかを通じて、Claude Mythos Previewへの不正アクセスがあったと主張する報告を調査しています。」

同社は、侵害の規模がどれほどだったのか、またアクセスの間に機密性のある出力やシステムの挙動が露出したかどうかについては、まだ明らかにしていません。

Claude Mythosとは何ですか?

Mythosは、Project Glasswingの一環として4月7日に導入されたもので、管理された環境のもとで、選定された組織に対してテストされている制限付きのAIモデルです。

この取り組みの目的は、次のような防御的サイバーセキュリティのシナリオにおいて、高度なAIシステムがどのように機能するかを評価することにあります。たとえば:

  • ソフトウェアの脆弱性の特定
  • 安全なコード分析の支援
  • サイバー防御の仕組みを強化すること

しかし、その能力は、デュアルユースの可能性があるため、規制当局や研究者の間でも懸念を呼んでいます。つまり、防御目的と攻撃目的の両方のサイバーセキュリティ用途に活用できる可能性があるということです。

なぜ重要なのか

この事案は、現代のAI開発における重要な課題を浮き彫りにしています。
セキュリティはもはやモデルだけの問題ではなく、それを取り巻くエコシステム全体の問題なのです。

AIモデルが厳密に制御されていても、リスクは次のようなところから生じ得ます。

  • サードパーティのベンダー連携
  • アクセス管理の不備
  • 企業の直接の管理外にあるテスト環境

MythosのようなフロンティアAIシステムでは、脆弱性の発見やコード生成を含む高度な技術タスクを実行できるため、リスクの度合いは特に高くなります。

より大きな全体像

AIシステムがより強力になるにつれ、組織は次にますます注目するようになっています。

  • 安全なモデル導入パイプライン
  • ベンダーのリスク管理
  • 制御されたアクセスによるテスト環境
  • より強力な監査およびモニタリングの仕組み

Mythosの事案は、次世代のAIモデルがどのように安全に配布されるべきか、特に初期アクセスやプレビュー段階において、議論を加速させる可能性があります。