OpenAIとAnthropicは最近、一般に公開されたチャットボットやAPIにプロンプトを与えて新しいAIモデルを学習させる、いわゆる「蒸留(distillation)」の第三者による取り組みに対して、先鋭的に対抗している。
この議論は、米国の提供にほぼ匹敵する能力を備えたオープンウェイトのモデルを、はるかに低いコストで提供するために蒸留を使っている中国企業に焦点が当たってきた。だが、IT(技術)系の人々の間では、アメリカのラボも競合に後れを取らないために、互いに対して同様の手法を用いているのだろう、という見方が広く浸透していた。
そして今、少なくとも1件についてはそれが事実であると分かった:木曜日、カリフォルニアの連邦裁判所の法廷の場で、エロン・マスクは、xAIがOpenAIのモデルで蒸留手法を使ってグロック(Grok)を学習させたのかと問われ、それはAI企業の間では一般的な実践だと主張した。「それは“イエス”ということですか?」と聞かれると、彼は「部分的に」と答えた。
マスクは、エロン・マスクが自身のツイートから逃げられないという内容で報じられたOpenAIの訴訟の進行中であり、CEOのサム・アルトマンと、グレッグ・ブロックマンを相手取っている。訴状では、OpenAIを非営利の当初の使命から逸脱させ、有利な営利構造へと組織を移したと主張している。この裁判は今週始まり、技術分野のリーダーによる証言が行われた。
マスクの認めた内容は注目に値する。なぜなら蒸留は、計算基盤(コンピュート)への投資を通じて構築してきた優位性を損なうことで、AIの大手企業を脅かすからだ。これにより、他のソフトウェア開発者が、安価にほぼ同等の能力を備えたモデルを作れるようになる。ここにはかなりの皮肉があると言わざるを得ない。というのも、前線(フロンティア)のラボが、自社のモデルを学習するのに十分なデータを求める過程で、著作権ルールを曲げ、または(伝えられるところでは)破ってきたことがあるからだ。
2023年に始まったマスクのxAIが、OpenAIより後の時期に登場したにもかかわらず、その当時の業界リーダーから学ぼうとするのは不思議ではない。蒸留が明確に違法だとは分からないが、製品の利用者に対して企業が設定している利用規約に違反する可能性がある。
OpenAI、Anthropic、そしてGoogleは報道によると、フロンティア・モデル・フォーラムを通じて、中国からの蒸留の試みを封じる方法に関する情報を共有するための取り組みを立ち上げた。これらは通常、モデルの内部構造を理解するために行われる、体系的な問い合わせ(クエリ)を含む。こうした取り組みを止めるために、フロンティアのラボは、利用者が不審な大量クエリを行えないようにする作業を進めている。
OpenAIは、取材時点でマスクの認めた発言に関するコメント要請に応じなかった。
その後の証言の中で、マスクは、昨年の夏に自分が行った「xAIは間もなく、Googleを除くどの企業よりもはるかに先を行く」という主張について問われた。これに対して彼は、世界の主要なAI提供企業の序列を述べ、Anthropicが首位で、その次にOpenAI、Google、そして中国のオープンソース・モデルが続くとした。彼はxAIを、従業員が数百人しかいないはるかに小規模な会社だと位置づけた。



