エンタープライズAIとフロンティアAIの間に広がるギャップが、オープンウェイト・モデルの注目を高めている

The Register / 2026/4/12

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisIndustry & Market Moves

要点

  • この記事では、エンタープライズ向けAIシステムとフロンティア・モデルの間でギャップが広がることが、導入と運用が容易なオープンウェイト・モデルへの関心を再び高めていると主張している。
  • 多くの顧客は、「最大級」のフロンティア・モデルを使うことよりも、信頼性の高い性能、低い総コスト、ならびに専有データの漏えいや悪用を防ぐためのセーフガードといった、実務上の成果を優先していることを強調する。
  • オープンウェイト・モデルは、エンタープライズにとってより多くのコントロールを提供し、内部要件により適合したカスタマイズやデプロイ(導入)選択を可能にする点を取り上げる。
  • 本記事は、この動きを、市場が「能力」と「ガバナンス」「セキュリティ」「経済性」のバランスが取れたモデルを、調達や採用のパターンにおいてますます選好する可能性があるというシグナルとして位置づけている。

企業向けAIとフロンティアAIの間に広がる「空白」が、オープン・ウェイトのモデルに注目を集める

多くの顧客は、最大で最強のモデルを必要としているわけではない。「機能する」「安い」「自社のプロプライエタリなデータを海賊版にされない」ものが欲しいだけだ

Sun 12 Apr 2026 // 10:51 UTC

特集 春が来たということは、Google、Microsoft、Alibaba、Nvidia などの顔ぶれから、また別の波のオープン・ウェイト型AIモデルが登場するということだ。だが今回は、ちょっと様子が違う。

これまでこうしたモデルは、玩具みたいなものに感じられてきた。つまり、研究プロジェクトや概念実証(PoC)で、サイズや革新性という点では見事でも、OpenAI、Anthropic、あるいは Google の最上位モデルにはまだ大きく及ばない——そんな印象だった。

しかし、Qwen 3.5、Google の Gemma 4、そして Microsoft の MAI の音声・画像モデルは、少し違う。これらはPoCというより、企業向け製品のように見える。

「私たちは“面白い”段階から、“本気の”エンタープライズ・プラットフォームへ移行しました」と、IDC のシニア・リサーチ・ディレクター、Andrew Buss 氏は El Reg に語った。

これらのモデルは、厳しい現実を浮き彫りにする。つまり、企業向けAIとフロンティアAIの間にある溝は、ここ数年でかなり拡大しており、より強力なモデルは多くの企業の手の届かないところにあるということだ。

「われわれは分岐が起きているのを見ていると思います」と Buss 氏は言った。「“誰にでも何でもやろう”としているかのような、より大きくて包括的なモデルが出てきています。一方で、より小さく、より専門的なモデルの台頭も見られます。これらは、より特定の成果や問い合わせ(クエリ)のタイプに合わせて調整され、そうした状況に向けて作られているのです。」 

返却形式: {"translated": "翻訳されたHTML"}

フロンティア・モデルの主権AIにおける盲点?

OpenAIまたはAnthropicの最上位モデルにアクセスするには、APIまたはチャットボットに対して、潜在的に機微な顧客データや知的財産をさらす必要があります。

両社は、企業向けデータやAPIデータを自社のモデルの学習に使っていないと主張していますが、著作権侵害で何度も法廷に引きずり出されてきたのも、同じ会社です。

企業は、メールや営業提案を下書きするためにGeminiやCopilotを使うことには前向きかもしれませんが、独自の(プロプライエタリな)データへのアクセスを与えるのは論外です。 

代替案はというと、あまり良くありません。DeepSeek、Alibaba、Moonshot AI、MiniMaxといった企業の大規模な中国モデルがいくつかあり、OpenAIやAnthropicにかなり近いところまでは連れて行ってくれます。とはいえ、その多くは依然として相当なインフラ投資を必要とします。NvidiaやAMDの企業向けシステムでさえ、1台あたりおよそ25万ドルから50万ドルの費用がかかります。

しかし、ユースケースによっては、企業が必ずしもフロンティア級のモデルを必要としないこともあります。重要なのは、そのモデルが望む成果をもたらすのに十分な出来かどうかだと、Bussは述べています。

規模の割に、Google、Alibaba、Microsoft、Nvidiaの最新オープンモデルは、驚くほど競争力が高いだけでなく、運用コストも比較的安価です。

Arena AIのテキスト・リーダーボード(どのモデルが最良の出力を生成するかを一般投票で決めるもの)では、GoogleのGemma 4 31B(取り込んでいる310億パラメータを指す) が、現在、オープンモデルの4番目にランクされたモデルです。Z.AIのGLM-5と、Moonshot AIのKimi 2.5 Thinking(7440億パラメータと1兆パラメータで、桁違いに巨大)に続く形です。

「あらゆる規模の企業でAIに対する需要と欲求があります。そして、中堅市場の企業にとっても関連性が非常に高いと私たちは考えています」とBussは述べました。「そのためには、インフラのハードウェアと、それらの上で動かせるタイプのモデルの両方に幅が必要です。」

Googleの新しい31Bパラメータのモデルは、RTX Pro 6000 Blackwellを1枚使って、フルの16ビット精度で簡単に動かせます。さらに、同時リクエスト数やインタラクティブ性をある程度確保するための余裕も十分に残ります。

このカードは通常、8000ドルから1万ドルの間で販売されています。Qwen 3.5でも同様の話で、最大級の2モデルを除けば、ほとんどは1枚のGPUに収まります。

Bussは、これらの小規模で企業向けに絞り込まれたモデルでは、そもそもそれほど多くの計算能力(compute)を必要としない場合すらあると指摘します。「GPUアクセラレーションのようなものを、いつも必要としているわけではありません。これらのAIワークロードの多くは、理想的には、かなり現代的なCPUベースのサーバーに読み込んで実行できます」と彼は言いました。

より小さく、より目的に絞られたこれらのモデルは、QLoRAのファインチューニングや強化学習といった手法でカスタマイズする際にも、大きな追加リソースは(必要ならほとんど)要りません。 

何が変わった?

では、これらのモデルがここまで能力を高められたのは、何が変わったからなのでしょうか?実際、かなり多くのことが変わりました。

過去1年には、モデルの学習だけでなく、それらを活用するために必要なフレームワークでも進歩が相次ぎました。

皆さんは、市場を沸かせたDeepSeek R1のことを覚えているかもしれません。これは、GPT-o1の「chain-of-thought(思考の連鎖)」推論を、時間を高品質な出力と引き換えに再現するために強化学習(RL)を用いた、最初期のオープンウェイトのフロンティア・モデルの一つでした。

この手法は現在、「テスト時スケーリング(test-time scaling)」と呼ばれており、より小型のモデルが、パラメータ数が少ないという弱点を「長く考える」ことで埋め合わせるのに役立っています。

また過去1年では、より多くのモデルが、ビジョン(視覚)や音声の処理に対応するようになり、それによって視覚データを分析できるようになりました。さらに、より賢いアーキテクチャやより良い圧縮技術によって、動作に必要な計算(compute)とメモリのリソースも一段と削減されました。

しかし、おそらく最大の変化は、実際の仕事をこなすためにこれらのモデルを使いこなすソフトウェアが、かなり成熟したことです。

これらのフレームワークにより、モデルは学習データに限定されません。Web、データベース、APIから情報を取得し、ツール呼び出しを通じて結果に基づいて行動することができます。 

GoogleとNvidiaのモデルは、関数呼び出し(function calling)を前提として学習されています。言い換えれば、単体のモデルとして使われることを主に想定していないということです。たとえばMicrosoftのMAIのような一部のモデルは、音声認識や画像生成といった特定領域向けに最適化することで、さらに一段上の取り組みをしています。 

その結果、次の課題は、その仕事に対して適切なモデルをどう選ぶかになります。Bussは、何らかのレコメンド(推薦)システムが必要になる可能性が高いと示唆しています。

モデル開発者は、ここから何を得るのか?

プロプライエタリなデータにアクセスできるローカル・エージェントを動かせることには、特に目立った利点はありません。ひとつには、これらのモデルはオープンである一方で、ある種のベンダー・ロックインは依然として存在することです。これらのモデルで構築されたエージェントには、特定のアーキテクチャに合わせて調整されたシステムプロンプトやツールが組み込まれます。

それは、より大きなモデルでは届かない市場に到達できるようにするためだと、Bussは説明しました。 

「あなたの技術やアプローチ、そしてIPを使って開発する人たちがいるなら、彼らはあなたのエコシステムの中で、より上位へ移行し続けてくれる可能性が高いんです」と彼は言いました。「要するに入口(エントリーポイント)にプロダクトを用意しておくこと…若いうちに捕まえておけば、成長するにつれて、長い目で見ればあなたのところにとどまる傾向がある。そういうことです。」

エコシステム戦略の他にも、こうしたローカル・モデルはデータセンターの電力消費を引き下げるのに役立つ可能性があります。発想としては、OpenAIのGPT-5と似ています。GPT-5は単一のモデルではなく、プロンプトのルーティングを複雑さだけでなく、さまざまなポリシーに基づいて動的に振り分ける複数のモデルで構成されています。

同じロジックは、分離(ディスアグリゲート)された形でも適用できます。つまり、ローカルで動作するルーティング・モデルが、プロプライエタリなデータへのアクセスを必要とするプロンプトをローカルのLLMに誘導し、一方で機微度が低い要求はAPI提供事業者にオフロードする、といった形です。

「解決策には、いわばスペクトラムがあります。完全にプライベートなオンプレミスから、コロケーションのデータセンターで“用途の場所で”専用にする形、公衆クラウドで専用にする形、そして、ワークロードやプロンプトが機微でない場合にコスト削減のための共用環境にする形まで、さまざまです」とBussは述べました。 ®

シェア
これに近い話題
×

より絞り込んだ話題

詳細について

これに近い内容
×

より絞り込んだ話題

情報をお寄せください

ニュースをお送りください