Anthropicは Claudeを操作できない、米軍が Claude の運用を開始した後、その生成AIモデル Claude を操作することはできないと、ある幹部が金曜日の裁判所提出書に記した。この発言は、トランプ政権による同社が戦時に AIツールを改ざんする可能性についての非難に対する回答として出された 戦時にAIツールを改ざんする可能性。
“Anthropic は Claude を停止させたり、機能を変更したり、アクセスを遮断したり、その他の方法で軍事作戦に影響または危機に陥れる能力を持ってきたことはありませんでした”と、Anthropic の公共部門責任者ティヤグ・ラマサミは裁判所への提出書の中で と記した。“Anthropic には、テクノロジーを無効化したり、進行中の作戦前後のモデル挙動を変更したりするためのアクセス権が必要ではない。”
ペンタゴンは、数か月にわたり、国家安全保障のためにその技術をどう利用できるか、そしてその利用の限界は何であるべきかを巡って、主要なAI研究所と激しくやり取りを続けてきた。今月、国防長官ペト・ヘグセットはAnthropic を サプライチェーン・リスクと名指し、今後数か月にわたり国防総省が同社のソフトウェアを、契約を介しても使用できなくなる見込みだ。ほかの連邦機関も Claude の使用を見限っている。
Anthropic 二つの訴訟を起こしたことで、禁止の憲法適合性を争い、それを覆す緊急命令を求めている。しかし、顧客はすでに取引をキャンセルする動きを見せている。訴訟の一つの審理は、3月24日にサンフランシスコの連邦地方裁判所で予定されている。裁判官は、近日中に一時的な覆しを決定する可能性がある。
今週初めの提出書面では、政府の弁護士は、国防総省が「国家防衛の重要な局面と現役の軍事作戦において、重要な軍事システムが危機に晒されるリスクを耐えさせる必要はない」と記している。
ペンタゴンは Claude を用いてデータを分析し、メモを作成し、戦闘計画の作成を支援してきたと WIRED が伝えた。政府の主張は、Anthropic が特定の用途に反対した場合、Claude へのアクセスを停止させたり、有害な更新を押し付けたりすることで、活発な軍事作戦を妨害する可能性がある、というものだ。
ラマサミはその可能性を否定した。『Anthropic はバックドアや遠隔の“キルスイッチ”を保持していません。』と彼は書いた。『Anthropic の職員は、例えば作戦中に DoW のシステムにログインしてモデルを変更・無効化することはできません。技術はそのようには機能しません。』
彼は続けて、Anthropic は政府とそのクラウド提供者、今回の場合はAmazon Web Servicesの承認を得た場合に限り更新を提供できると述べたが、彼はその名称を特定しなかった。ラマサミはまた、Anthropic は軍用ユーザーが Claude に入力するプロンプトや他のデータにはアクセスできないと付け加えた。
Anthropic の幹部は、裁判所への提出書類の中で、軍事作戦の戦術的意思決定を拒否する権限を同社が望んでいないと主張している。政策責任者サラ・ヘックは、金曜日の裁判所提出書で、3月4日に提案された契約案にできる限り保証する意向を示した。「念のために言えば、[Anthropic] はこのライセンスが法的に認められている国の軍の作戦意思決定を統制したり拒否したりする権利を付与するものではないという理解をしている」と、提案にはペンタゴンの別名を指している、との読み取りもある。
ヘックはまた、Claude が人間の監督なしに致死的な攻撃の実行を支援するために使用されることについての懸念を解消する文言を受け入れる用意があると述べた。しかし、交渉は結局決裂した。
現時点では、国防総省は裁判所への提出書で「サプライチェーン・リスク」を緩和する追加措置を講じていると述べており、「Anthropic の指導部が Claude システムに一方的な変更を行えないようにするため、第三者のクラウドサービス提供者と協力する」という文言を含むとされる。