米政府、国家安全保障テストのため主要5社のAIモデルに事前アクセス

THE DECODER / 2026/5/6

📰 ニュースDeveloper Stack & InfrastructureSignals & Early TrendsIndustry & Market Moves

要点

  • 米商務省は国家安全保障目的のため、主要5社のAIモデルについて事前アクセスを提供する形でAI安全性テストを拡大している。
  • AnthropicやOpenAIに続き、Center for AI Standards and Innovation(AI基準・イノベーションセンター)を通じてGoogle DeepMind、Microsoft、xAIとも契約を結んだ。
  • 提供されるモデルは、分類環境でのテストを可能にするため安全上の「ガードレール」を弱めたものになっている。
  • 背景には、増大するサイバーセキュリティ上の脅威と、中国との技術競争の激化がある。
  • これらの契約は、モデルの一般展開前に政府の監督のもとでAI安全性評価を実務化しようとする流れを示している。

米国商務省がAI安全性テストを拡大している。AnthropicやOpenAIに続き、Google Deepmind、Microsoft、そしてxAIも、AI Standards and Innovation(AI標準・イノベーション)センターと協定を締結した。これらの企業は、サイバーセキュリティ上のリスクが高まる中、そして中国との技術競争が激化する中で、分類された環境でのテストに用いるため、安全性のガードレールを緩めたモデルを提供する。

この記事 米政府は国家安全保障テストのために5つの主要ラボからAIモデルへの事前アクセスを持つようになった は、The Decoder に最初に掲載された。