Cursor's ComposerはMoonshotの中国モデルであるKimi K2.5の上に構築されています。ShopifyはAlibabaのQwenへ切り替え、年間500万ドルを節約しました。AirbnbのCEOであるBrian Cheskyは公にこう述べています。"私たちはQwenに大きく依存しています。とても良くて、速くて、しかも安い。" CognitionのSWE-1.6モデルは、ZhipuのGLMでポストトレーニングされている可能性が高いです。そして先週、ZhipuはGLM-5.1をリリースしました。これは、コーディングタスクにおいてClaude Opusにかなり近い成績をベンチマークで示すオープンソースのモデルです。
一方でテックメディアは、OpenAI対Anthropic対Googleの話であふれています。物語としては、アメリカのクローズドな研究所のモデルこそが、実際に本番で展開されているのだというのがまだ主流です。でも、いまシリコンバレーの大手プロダクトの一部の内部で動いているのは何でしょうか?中国のオープンソースです。
これらの企業はイデオロギー的な選択をしているわけではありません。特定のタスクに対して十分に速く、安く、正確だからKimiとQwenを使っているのです。実は、ここがいちばん面白いところで、現実の経済性において最適化されたオープンソースが、最前線のラボとどれほどうまく競争できるかという話なのです。しかも、その変化は多くの人が想像していたよりも速いスピードで起きています。
そして、誰も口にしたがらない側面もあります。Airbnbの旅行を予約しているユーザーは、上海で作られたモデルの成果を受け取っています。Cursorを使っている人は、中国企業の研究によるコード補完を受けています。多くの人はそれをまったく知りませんし、Airbnbもチャイアログにそのようなことを正確に書いたわけではありません。
私が本当に確信を持てないのは次の点です。データパイプラインがアメリカの会社によって管理されているなら、モデルの出自は、いざあなたのインフラ上で動いてしまった後には本当に重要なのでしょうか?それとも、訓練データの出所、ポストトレーニング時のアラインメントの選択、そしてそれを作った組織のインセンティブといった、ある種の構造的な違いが残り、それが重みがオープンソースになった後でも持ち越されるのでしょうか?
[link] [comments]

