The Trump administration は火曜日の裁判所提出書で、AI開発者をサプライチェーン・リスクとして指定することでAnthropicの第一修正権を侵害していないと主張し、政府に対する企業の訴訟が失敗すると予測した。
「第一修正は政府に対して一方的に契約条件を課す権利を認めるものではなく、Anthropicはそのような過激な結論を支持する根拠を何も挙げていない」と米国司法省の弁護士は書いた。
この回答はサンフランシスコの連邦裁判所に提出され、Anthropic が 国防総省の制裁決定に異議を唱えている企業を防衛契約から排除する可能性のあるラベルを適用したことに関して、二つの会場のうちの一つである。Anthropic はそのラベルの適用において政権が権限を超え、同社の技術が部内で使用されるのを妨げたと主張する。もしこの指定が有効であれば、Anthropic は今年、予想収益として数十億ドルを失う可能性がある。
Anthropic は訴訟が解決するまで通常通りのビジネスを再開したいと考えています。サンフランシスコ事件を監督する裁判官リタ・リンは、Anthropic の要望を尊重するかどうかを決定するため、来週の火曜日に審理を設定しました。
司法省の弁護士は、火曜日の提出書で、国防総省および他の機関を代弁する法務省の弁護士は、Anthropic が事業を失う懸念を「法的に不可逆的な損害を構成するには不十分」と表現し、リンに対して同社への猶予を認めないよう求めた。
弁護士らはまた、政府の政権が行動に出た動機として「政府の技術システムへのアクセスを維持した場合のAnthropicの潜在的な将来の行為についての懸念」があったと書いている。“No one has purported to restrict Anthropic’s expressive activity,”と彼らは書いた。
政府は、Anthropic のAI技術の使用方法を制限するような取り組みが、国防長官ペイト・ヘグセットを「合理的に」次のように判断させたと主張する。「Anthropic のスタッフは、国家安全保障システムの設計・完全性・運用を妨害する可能性がある」
国防総省とAnthropic は、同社の Claude AI モデルに対する潜在的な制限を巡って争ってきた。Anthropic は、同社のモデルが米国民の広範な監視を促進するために使用されるべきではなく、現時点では完全自律兵器を動かすには信頼性が十分ではないと考えている。
Several legal experts previously told WIRED that Anthropic has a strong argument that the supply-chain measure amounts to illegal retaliation. But courts often favor national security arguments from the government, and Pentagon officials have described Anthropic as a contractor that has gone rogue and that its technologies cannot be trusted.
“In particular, DoW became concerned that allowing Anthropic continued access to DoW’s technical and operational warfighting infrastructure would introduce unacceptable risk into DoW supply chains,” Tuesday’s filing states. “AI systems are acutely vulnerable to manipulation, and Anthropic could attempt to disable its technology or preemptively alter the behavior of its model either before or during ongoing warfighting operations, if Anthropic—in its discretion—feels that its corporate ‘red lines’ are being crossed.”
The Defense Department and other federal agencies are working to replace Anthropic’s AI tools with products from competing tech companies in the next few months. One of the military’s top uses of Claude is through Palantir data analysis software, people familiar with the matter have told WIRED.
In Tuesday’s filing, the lawyers argued that the Pentagon “cannot simply flip a switch at a time when Anthropic currently is the only AI model cleared for use” on the department’s’s “classified systems and high-intensity combat operations are underway.” The department is working to deploy AI systems from Google, OpenAI, and xAI as alternatives.
A number of companies and groups, including AI researchers, Microsoft, a federal employee labor union, and former military leaders have filed court briefs in support of Anthropic. None have been filed in support of the government.
Anthropic has until Friday to file a counter response to the government’s arguments.
