OpenAIは、イリノイ州の法案を後押ししている。これは、AIモデルが悪用され、死者や重傷者が100人以上に及ぶ、あるいは少なくとも10億ドル規模の重大な財産被害をもたらすといった深刻な社会的害悪が生じた場合に、AIラボ(開発事業者)を賠償責任から免れるようにするものだ。
この取り組みは、OpenAIの立法における戦略の転換を示すもののようだ。これまでOpenAIは主に防御に徹し、自社技術が引き起こす害悪についてAIラボが法的責任を負うことになり得る法案には反対してきた。複数のAI政策の専門家がWIREDに語ったところによると、業界に新たな基準を設けかねないSB 3444は、OpenAIが過去に支援してきた法案よりも、より極端な措置だという。
同法案は、先端的なAI開発者が、最前線のモデルによって引き起こされた「重要な危害(critical harms)」について、意図的または無謀にそのような事故を起こしたのではない限り、責任を負わないようにする。また、公式サイトで安全性・セキュリティ・透明性に関する報告書を公表していることも条件となる。同法案では「フロンティアモデル(frontier model)」を、計算コスト(計算にかかる費用)が1億ドルを超える形で訓練されたあらゆるAIモデルと定義しており、OpenAI、Google、xAI、Anthropic、Metaのように米国最大級のAIラボにも適用される可能性が高い。
「私たちは、このような取り組みを支持します。最も重要な点、つまり、最先端のAIシステムによる深刻な害悪のリスクを減らしつつ、この技術が、イリノイ州の人々や中小企業から大企業に至るまで、現場に届くことを可能にするからです」と、OpenAIの広報担当者ジェイミー・ラディス(Jamie Radice)は、電子メールでの声明で述べた。「また、州ごとの規則が入り混じる“継ぎはぎ”を避け、より明確で一貫した全国基準へと前進する助けにもなります。」
同法案の「重要な危害」の定義のもとでは、AI業界が懸念すべき共通領域として、たとえば悪意ある行為者がAIを使って化学物質を作る、生物学的なものを作る、放射性または核兵器を作るといったケースが挙げられている。もしAIモデルが、それ自体で人間が行えば犯罪行為に当たり、かつそうした極端な結果につながるような行動を単独で行った場合、それも重要な危害に該当する。AIモデルがSB 3444のもとでこれらの行為のいずれかを行ったとしても、意図的ではなく、かつ報告書を公表しているのであれば、当該モデルを開発したAIラボは責任を負わない可能性がある。
米国では、OpenAIのようなAIモデル開発者が、自社技術によって生じたこの種の害悪について責任を負い得るかどうかを、特に定める法律はいまだ連邦・州のいずれでも成立していない。しかし、AnthropicのClaude Mythosのように、新たな安全性やサイバーセキュリティ上の課題を引き起こす、より強力なAIモデルをAIラボが引き続き公開していくなかで、これらの論点はますます差し迫ったものに感じられる。
SB 3444を支持する証言の中で、OpenAIのグローバル・アフェアーズ(Global Affairs)チームのメンバーであるケイトリン・ニーダーマイヤー(Caitlin Niedermeyer)も、AI規制について連邦の枠組みを設けることに賛同していた。ニーダーマイヤーは、トランプ政権による州のAI安全法への取り締まりに沿ったメッセージを打ち出し、意義ある形で安全性を高めることなく摩擦だけを生みかねない「不一致な州ごとの要求事項の継ぎはぎ」を避けることが重要だと主張した。これは近年のシリコンバレー全体のより広い見方とも一致しており、一般に連邦のAI立法が、グローバルなAI競争におけるアメリカの立場を損なわないことが最重要だと論じてきた。SB 3444自体は州レベルの安全法だが、ニーダーマイヤーは、それらは「連邦の仕組みとの調和に向けた道筋を後押しする」ものであれば有効になり得ると主張した。
「OpenAIでは、フロンティア規制における北極星(導きの基準)は、最先端モデルを安全に展開し、そのうえでイノベーションにおける米国のリーダーシップを守ることだと考えています」とニーダーマイヤーは述べた。
Secure AIプロジェクトの政策ディレクターであるスコット・ウィゾーは、WIREDに対し、この法案が通過する可能性は高くないと考えていると語る。イリノイ州は技術をめぐって強硬に規制してきた評判があるからだという。「イリノイ州の人々に調査をして、『AI企業は免責(責任免除)されるべきだと思うか』と聞いたところ、90%がそれに反対でした。既存のAI企業が責任を軽くされるような状況である理由はありません」とウィゾーは言う。
また、イリノイ州の議員たちは、AIモデル開発者の責任を引き上げる法案も提出していると指摘する。昨年8月、同州は、メンタルヘルスのサービスにおけるAIの利用を制限する同国で最初の法規制を可決した。イリノイ州は、バイオメトリクス(生体)データの収集を規制する点でも早かった。すでに2008年には、可決によって、バイオメトリック情報プライバシー法を成立させている。
SB 3444は大量死傷事案や大規模な金融災害に焦点を当てている一方で、AIラボは自社のAIモデルが個人レベルで引き起こし得る害についての問いにも直面している。自殺により亡くなった子どもたちの複数の家族が、(少なくとも)ChatGPTとの不健康な関係を育んだ結果として命を絶ったとして、過去1年の間にOpenAIを提訴している。
彼女の証言でニーダーマイヤーが求める連邦のAI立法は、連邦議会にとってなお遠い目標のままだ。トランプ政権は、いくつかの連邦AI立法を後押しすることを狙って、行政命令を出し、枠組みを公表してきたものの、実際にそうした措置を成立させる話はどこにも進んでいないように見える。連邦の指針がない中で、カリフォルニア州やニューヨーク州を含む各州は、SB 53やRaise Actのような法案を可決しており、AIモデル開発者に安全性と透明性に関する報告書の提出を求めている。
AIブームが何年も続いた今でも、AIモデルが壊滅的な事態を引き起こした場合に何が起きるのか、という未解決の法的な論点が残っている。




