Cerebras株は初日でほぼ2倍に—AIチップメーカーが時価総額1,000億ドル到達、AIインフラにとって何を意味するか

VentureBeat / 2026/5/15

📰 ニュースDeveloper Stack & InfrastructureSignals & Early TrendsIndustry & Market MovesModels & Research

要点

  • Cerebras SystemsはNasdaqに1株350ドルで上場し、IPO価格185ドルからほぼ倍増、上場後数時間で時価総額は1,000億ドルを超えた。
  • 同社は3,000万株を売り出して55.5億ドルを調達し、2019年のUber以来の米国最大のテックIPOとなったほか、需要の強さを受けて売り出し想定レンジを上回る価格で決着した。
  • 経営陣は、調達した資金をクラウド・インフラの拡充と、AI推論(inference)の高速化に向けたCerebrasシステムの導入拡大に投じる方針だと述べた。
  • 今回のIPOは、かつて単一顧客への売上依存が疑問視され上場計画を撤回した経緯を経た大きな巻き返しを反映しており、2026年の再申請ではOpenAIなどの新たな提携や、成長するクラウド推論収益基盤を背景にしている。
  • 上場は、AIのワークロードが大規模な推論を支えるために、従来とは本質的に異なる専用チップとインフラ設計を必要としていることの裏付けとして位置づけられている。

Cerebras Systems——世界最大の商用AIプロセッサを開発したシリコンバレーの半導体チップメーカーは、水曜日にナスダックへ躍り出ました。寄り付きは1株$350で、同社のIPO価格$185のほぼ2倍。取引開始直後の数時間で、時価総額$1,000億ドル($100 billion)を駆け抜ける勢いとなりました。上場デビューにより、Cerebrasは瞬時に地球上でもっとも価値ある半導体企業の一つに認定され、AI業界が最終的に、根本的に異なる種類のチップを必要とするようになるという10年越しの賭けが裏付けられました。

同社は1株$185で3,000万株を売り出し、ブルームバーグによれば2019年にUberが上場して以来最大の米国テックIPOとなる5.55十億ドル(55.5億ドル)を調達しました。最終的な価格設定は期待を打ち砕きました。Cerebrasは当初、株式を$115〜$125で売り出すと見込んでいましたが、投資家需要が急増したためレンジを$150〜$160へ引き上げ、それでもなお最終的には、その引き上げ後の水準を上回る価格で設定したのです。

"これは新たな始まりにすぎません。" と、Cerebrasのシニア・バイス・プレジデント兼チーフ・マーケティング・オフィサーであるJulie Choiは、IPO当日の朝に独占インタビューでVentureBeatに語りました。彼女によれば、同社は新たに調達した資金を、成長戦略の中核となっているクラウド基盤の拡張に投じる計画です。"この新しい資本によって、世界最速の推論(インファレンス)を支えるために、Cerebrasのシステムをより多くのデータホールへ展開していきます。"

今回のIPOは、近年のテック史における最も劇的な企業の立て直しの一つを締めくくるものです。Cerebrasはまず、2024年9月に上場を目指してIPO申請を行ったものの、その後撤回しました。その1年以上後には、アラブ首長国連邦の単一顧客への売上依存がほぼ全てという点について厳しい精査を受けるなかで、計画を断念したのです。同社は2026年4月に再申請し、事業プロフィールを抜本的に変えました。具体的には、OpenAIAmazon Web Servicesとの新たな提携、急成長中のクラウド推論サービス、そして売上基盤が2025年に76%増の5億1000万ドルまで伸びたことです。

直径が食卓の大皿サイズほどのチップが、時価1,000億ドル企業の土台になった理由

この熱狂ぶりを理解するには、まず「シリコン」を理解する必要があります。

Cerebrasは、Wafer-Scale Engine(WSE)と呼ばれるものを作っています。これは、いわゆる1チッププロセッサであり、普通のチップが切り出される、食卓の大皿サイズほどのディスクである「シリコンウェハー全体」を占有する設計です。第3世代のWSE-3には4兆個のトランジスタ、90万個の演算コア、そしてチップ上メモリとして44ギガバイトが搭載されています。同社のS-1提出資料によれば、これはNvidiaのB200「Blackwell」チップの58倍の大きさで、またB200パッケージより2,625倍多いメモリ帯域(メモリーバンド幅)を提供します。

この帯域の優位性は、AI推論——学習済みモデルを実行して答えを生成するプロセス——にとって極めて重要です。大規模言語モデルが文章を生成するとき、トークンを1つずつ予測し、各トークンのたびに、モデルの重み一式をメモリから演算へ移す必要があります。この作業は本質的に逐次的であり並列化できないため、速度の制約要因となるのがメモリ帯域です。Cerebrasは、自社のアーキテクチャがオープンソースのモデルにおいて、GPUベースの主要ソリューションに比べ推論応答を最大15倍高速にする、と主張しています。この数値は、第三者のベンチマーカーであるArtificial Analysisによって裏付けられています。

"ウェハーを作る際の建築(アーキテクチャ)の原則の一つは、『演算をできるだけ互いに近くに保ち、そうすれば低いレイテンシーで演算要素同士が会話できるようにしよう』というものでした。" と、Cerebrasのプロダクト担当バイスプレジデントであるAndy HockはVentureBeatに語りました。 "低レイテンシーはAIの計算にとって重要です。高速な推論の土台(コーナーストーン)です。"

創業時の洞察は逆張りで、しかも当社の大半の年月においては商業的に時期尚早でした。Cerebrasの創業者たちは2015年に、AIワークロードは「通信がボトルネックになる」タイプの問題であり——速度は、メモリと演算の間でデータをどれだけ速く動かせるかに依存する——そして、その移動を最も加速する方法は、すべてを巨大な単一チップ上に保つことだと認識していました。

ウェハースケールの統合は、半導体業界の75年の歴史の中で何度も試され、そのたびに見送られてきました。これまでの取り組みはすべて失敗していました。CerebrasはS-1で詳述されている2つの重要なイノベーションによってこの課題を解決しました。1つは、製造の際にウェハーのレベルで、そうであれば別々に独立してしまうダイ同士をつなぎ合わせる専有のマルチダイ・インターコネクト。もう1つは、ハイパースケールのデータセンターがサーバ障害を扱うのと似た形で、冗長なビルディングブロックを用いて製造上の欠陥を迂回するフォールトトレラントなアーキテクチャです。

なぜCerebrasはハードウェア販売ではなくクラウド推論に未来を賭けるのか

ほぼ同社のこれまでの歩みの中で、Cerebrasはハードウェアを販売していました——大規模で水冷のAIスーパーコンピュータを、顧客の施設内(オンプレミス)に設置するモデルです。このモデルは2025年にハードウェア売上として3億5,800万ドルを生み出しました。しかしIPO目論見書は、同社の次の章を形づくる戦略的な転換を明らかにしています。それが、クラウド型の推論サービスへの移行です。

Cerebrasは推論用のクラウドを2024年8月に立ち上げました。2年足らずの間に、クラウドおよびその他のサービスの売上は2025年に1億5,160万ドルに到達し、2024年の7,830万ドルから94%増となりました。同社は今後、このセグメントが総売上に占める割合は大幅に大きくなると見込んでいます。主に、その巨大なOpenAIとの取引によって牽引される見通しです。

"クラウドとモデルAPIは、推論サービスおよびアプリケーション開発者にとって好ましい、自然な消費(利用)の方法です。" とHockはVentureBeatに語りました。 "そのため、推論機能を提供するうえでの自然なパッケージングとGo-to-market(市場投入)戦略になりました。"

Choiは、クラウドを「民主化」の取り組みとして位置づけました。 "それが起業家精神のある開発者であれ、スタートアップであれ、OpenAIのような巨大組織であれ——クラウドによって、人々は本当に手軽に展開でき、速い推論の体験を通じてその価値をすぐに感じられるようになりました。" と彼女は述べました。

移行の経済性は資本集約的です。Cerebrasは、データセンターのスペースを賃借し、自社のシステムを製造・導入し、キャパシティを管理するソフトウェアを構築しなければなりません。これらはすべて、継続的な収益を認識する前の話です。S-1は率直に警告しているのは、同社がクラウド・インフラのスタートアップコストを吸収することで、短期的には粗利益率が低下するという点です。同社の粗利益率は、データセンターコストの上昇が要因となり、2024年の42.3%から2025年には39%まで既に落ち込んでいます。しかし、需要の見通しは非常に強固に見えます。 「これまでに私たちが展開してきた各クラウド・システムは、どれもキャパシティに食われてしまうんです」とHockは述べました。「Cerebrasによる高速推論への需要を非常に心強く感じています。その市場にサービスするために、もっと速く進みたいです。」

一夜でCerebrasを変えた200億ドル規模のOpenAI取引の中身

Cerebrasにとって最も影響の大きいビジネス上の関係は、2025年12月のOpenAIとの合意です。この合意では、OpenAIが今後数年間でCerebrasの推論計算キャパシティとして750メガワットを購入することが約束されました。この取引の価値は200億ドル超で、さらにOpenAIが追加で1.25ギガワットのキャパシティを購入できる条項が含まれています。これにより、合計の導入量が2ギガワットに達する可能性があります。

この取り決めは、一般的なベンダーと顧客の関係を大きく超えています。OpenAIとCerebrasは、将来のCerebras向けハードウェアのために将来のモデルを共同で設計しているのです。これは、出荷前に最前線のモデル・アーキテクチャをCerebrasが把握できるようにする、きわめて密なフィードバックループであると同時に、OpenAIの推論システムが、OpenAI固有のワークロードに最適化されることを可能にします。提携は契約から量産まで、驚くほどの速さで移行しました。 「私たちが提携を発表した後、最初のモデルが35日ほどで動き始めました」とChoiはVentureBeatに語りました。「それはCodex Sparkで、OpenAI側のエンジニアたちは、ただ『度肝を抜かれた』って感じでした。」

Codex Sparkは、リアルタイムのコーディング向けに設計されたOpenAIのモデルで、Cerebrasのインフラを使うことで、開発者が自然言語の指示を数秒で動作するソフトウェアへ変換できるようにします。Choiは、両社の間に深い企業文化の一致があると説明しました。 「私たちのチームは、本当にエンジニアとして気が合います。同じ波長で動いているんです」と彼女は言いました。「ああいう人たちにとっては、それで十分と言えるほどのスピードは存在しないんですよ。」

インフラ構築の資金を賄うため、OpenAIは2026年1月に、Cerebrasへ10億ドルの運転資金ローンを前倒しで提供しました。これは、2026年1月時点で、遅くとも2032年12月31日までに満期を迎える約束手形により担保されています。年6%の利息が付されます。このローンは現金で返済することも、計算(compute)キャパシティの引き渡しによって返済することも可能です。ただし、S-1は重大なリスクを開示しています。すなわち、MRAがOpenAIの重大な、未是正の違反以外の理由で終了した場合、OpenAIはローン資金の支配権を差し押さえ、即時の返済を求めることができます。さらにOpenAIは、CerebrasのClass N普通株式について、最大3,340万株を取得するためのワラントを保有しています。行使価格は1株あたり0.00001ドルです。これは実質的に無償同然の株式で、Cerebrasが約束したキャパシティを提供するにつれて権利が確定します。IPOのオープニング価格で見れば、完全に権利確定したワラントは約117億ドルの価値になるはずです。

Amazon Web Servicesの提携が、Cerebrasチップを数百万人の開発者へ届ける可能性

2026年3月、Cerebrasは拘束力のあるタームシートに署名し、Amazon Web Servicesと提携することで、自社のデータセンター内においてCerebrasシステムを展開する最初のハイパースケーラーになるとしました。この提携は、disaggregated inference(分離型推論)という新しいアーキテクチャ概念を導入します。これは、AI推論の2つの段階――プリフィル(ユーザーのプロンプトを処理する)とデコード(応答を生成する)――を、それぞれの作業に最適化された異なるハードウェアに分割するものです。この取り決めのもとでは、AWS Trainiumチップがプリフィルを担当し、一方でCerebrasのCS-3システムがデコードを担当します。両者は、AmazonのElastic Fabric Adapterによるネットワーキングで接続されます。

3月のAWSのプレス発表によれば、このアプローチは、現在利用可能なものに比べて推論を1桁分速く提供することを目指しています。Hockは、なぜそれが機能するのかについて技術的な詳細を示しました。 「プリフィルとデコードのシステム間のインターコネクト要件は実はそれほど高くないので、たとえばTrainiumとウエハースケール・エンジンの間では従来型のインターコネクトを使ったとしても、あの速い初トークンまでの時間と、超低レイテンシのトークン生成をきちんと実現できます」と彼は説明しました。「この分離型、あるいは異種推論のセットアップで、Trainiumのウエハースケール・エンジンの組み合わせが私たちにもたらすのは、すべてのスピードと、はるかに高い効率です。だから、ラックスペースやキロワットあたりで実効的により多くのトークンを提供できるんです。」

この提携は、Cerebrasに長年欠けていたもの――大規模な流通網――をもたらします。AWSは世界中で何百万ものエンタープライズ顧客にサービスを提供しており、Amazon Bedrock経由で導入されるCerebrasのシステムは、既存のAWS環境内にいるあらゆる開発者が利用できるようになります。 「AWSには驚くべき到達力があります」とHockは言いました。「この提携の本質は、その高速推論能力――ウエハースケール・エンジンとTrainiumによって提供されるような、業界最高水準の高速推論能力――を、より広い市場へ届けることです。」タームシートはまた、AWSに対して、約270万株までのCerebras Class N普通株を取得するためのワラントも付与しています。行使価格は100ドルで、権利確定は、最初のリースを超える製品購入と連動します。

IPOをほぼ頓挫させたUAE顧客集中の問題――そしてそれは本当に解決されたのか

どれほど盛り上がっていようとも、Cerebrasは初めてのIPOへの挑戦以来ずっと付きまとってきたリスクを抱えています。それが顧客集中です。2024年、アブダビ拠点のテクノロジー複合企業G42は、Cerebrasの総収益の85%を占めていました。同社の2024年9月のS-1提出書類は、この依存により厳しい精査を招きました。さらに、UAE向けに出荷される先進AIチップに関する輸出管理をめぐる疑問が重なりました。Cerebrasはその提出書類を撤回しました

2025年の数値は前進を示しているものの、解決には至っていません。G42の売上に占める割合は24%まで低下しましたが、G42の関連当事者であるアブダビの機関、Mohamed bin Zayed University of Artificial Intelligence(MBZUAI)は総売上の62%を計上しました。

この2つのUAE関連の事業体を合わせると、Cerebrasの2025年の売上の86%を依然として占めていました。S-1はこのリスクについて率直です。2025年12月31日時点でMBZUAIが売掛金の77.9%を占めていたこと、またCerebrasシステムがG42およびMBZUAIに出荷される際に必要となる米国の輸出許可には、「技術の転用や悪用を防ぐための、厳格なセキュリティおよびコンプライアンス上の義務」があると指摘しています。

Choiはこの問題に直接触れ、顧客基盤の拡大の証拠としてOpenAIとAWSの取引を挙げました。「いまOpenAIとAmazonが加わり、それは同じタイプの深いパートナーシップです」と彼女はVentureBeatに語りました。「私たちはディープテック企業です。私たちの技術は構築に10年かかりました。どのように作るか、その深いところまで踏み込みます。そしていま、2社の最大級のプレイヤー、最大のAIラボであるOpenAIと、最大のクラウドであるAWSと、さらに深く踏み込んでいます。」

Hockは顧客の進化を、市場の認識の段階的な変化として捉えました。「G42は市場を惹きつけ、そして鼓舞しました」と彼は言いました。「事業の中で、OpenAIやAWSほど賢く、より信頼でき、より大きな到達力を持つところはありません。だから、OpenAIとAWSが市場を、惹きつけられて鼓舞された状態から――好奇心を持ち、確信した状態へと、シフトさせたのだと思います。」それでもS-1は、OpenAI MRA自体が「今後数年間に見込まれる当社の売上の相当な部分を占める」ことを警告しています。Cerebrasの事業は、当面の間、非常に大規模な顧客の少数に依存し続けることになります――AIインフラ市場では、増設が数百メガワット、数十億ドル単位で測られるという構造的な特徴です。

Cerebrasは、暴走する需要に追いつけるほど十分な速度でデータセンターを建設できるのか?

OpenAIがコミット済みの750メガワットを消費し、さらにAWSが自社データセンターでCerebrasシステムを展開する準備を進めているなかで、問題はCerebrasが、ほかのすべての需要に対応するために、物理的インフラを十分な速さで拡張できるかどうかです。Hockはこの緊張関係を認めました。「需要が供給を上回り始めると、抱えるには良い問題です。でも、それが対処しやすい問題を意味するわけではありません」と彼はVentureBeatに語りました。「私たちは、こうした並外れたシステムを作らなければなりません。データセンターのスペースを確保しなければなりません。そこにシステムを展開しなければなりません。そして、顧客がいる場所に合わせて対応できるソフトウェアを立ち上げなければなりません。」

同社は、キャパシティの割り当てについて慎重に進めています。「私たちは、構築されていく中で、キャパシティの配分方法について本当に慎重になろうとしています」とHockは述べました。「私たちは、最優先の顧客と最優先の市場にサービスを提供するために、深いパートナーシップで取り組んでいます。」

Choiは、この制約こそが焦点をより鋭くすると主張しました。「何かが少ないときは、それが本当に計画的であることを強制します」と彼女は言います。OpenAI以外にも、彼女は重要な顧客としてCognition――AIコーディングのスタートアップ――とBlock(Jack Dorseyが率いる)を挙げました。「Jackも私たちのロードショーに参加しました」とChoiは付け加えました。「私たちは、Cash Appの中で、その一連の“お金を稼ぐボット×AI”体験を加速させています。」

S-1によれば、Cerebrasは現在カリフォルニア、オクラホマ、カナダでデータセンターを運営しており、国際展開を計画しています。同社は2025年後半に、将来の最低支払額の合計が約3億4,400万ドルに達する、キャンセル不能のデータセンターレースを実行し、さらに2026年3月には、10年間の契約期間にわたって最低支払額が約22億ドルになる見込みのカナダのデータセンターレースに署名しました。

IPO資金――2026年1月のシリーズHの優先株ラウンドからの10億ドルと、10億ドルのOpenAIローンを合わせたもの――により、Cerebrasは増設の資金として80億ドル超の“厚い手元資金”を確保します。主要顧客がギガワット単位でキャパシティを注文している市場に対して、それが十分なのかどうかは、依然として未解決の問いです。

Nvidiaの影:AIチップ戦争でCerebrasが本当に相手にしているもの

Cerebrasは、ここ数十年で最も競争が激しい半導体環境のど真ん中で株式公開市場に参入します。NvidiaはAIコンピュートにおいて支配的な存在であり、学習および推論のインフラ市場の大部分を制御しています。同社のGPUアーキテクチャは、AI開発における事実上の標準となったプログラミングフレームワークであるCUDAを中心に構築された、深く根付いたソフトウェアエコシステムの恩恵を受けています。CerebrasのS-1はこれを明確に認めています。そこでは、「新規の市場参入者を排除するよう設計された、有名で最先端の技術やソフトウェアスタックのような競争上の優位性によって、多くの競合他社が当社よりも利益を得ている」旨が述べられています。

しかしCerebrasは、推論市場は学習とは構造的に異なると主張しています――そして、今後最も重要なワークロードにおいて、そのアーキテクチャには根本的な優位性があるのだとしています。AIモデルが推論へと移行し、推論の間に複数ステップの計算を行って問題を考え抜くようになってくると、1リクエストで生成されるトークン数が爆発的に増えています。各トークンには、計算のためにメモリからモデルの重みを完全に移動させる必要があるため、メモリ帯域幅がボトルネックになります。S-1は、Bloomberg Intelligenceのデータとして、Cerebrasが到達可能なAI推論市場のうちの部分が、2025年の約660億ドルから2029年には2,920億ドルまで成長すると見込まれていること、つまり年平均成長率(CAGR)45%――AI学習インフラで見込まれている20%のCAGRを大幅に上回る――と引用しています。

Nvidiaは、速い推論による脅威に明確に気づいています。2025年12月、NvidiaはGroqを買収しました。Groqは、テンソル・ストリーミング・プロセッサのアーキテクチャがCerebrasのアプローチにより近いスタートアップで、買収額は200億ドルです。

数か月後、NvidiaはGroqベースの製品計画を発表し、レイテンシーに敏感な推論においてGPUアーキテクチャには限界があることを、業界の覇者でさえ認識していることを示した。Cerebrasも、GoogleのTPUやAmazonのTrainiumチップを含むハイパースケーラーが開発したカスタムシリコンや、成長を続けるAIクラウド提供事業者の顔ぶれと競合している。NvidiaとGroqについて問われた際、Choiは関与を避けた。「今のところ、かなり良い感触です」と、彼女は笑顔でVentureBeatに語った。

売上は急増しているが、財務の注記にはより複雑な実態が見える

S-1から浮かび上がる財務像は、重大な複雑さを伴う急速なスケールアップだ。売上は2023年の7,870万ドルから2024年の2億2,930万ドルへ、そして2025年の5億1,000万ドルへと伸びており、3年間で10倍超の増加である。同社は2025年のGAAPベースの純利益を2億3,780万ドルと報告したが、この数値は、優先株の取り決めに関連するフォワード契約負債の消滅による一時的な利益3億6,330万ドルの影響が非常に大きい。その利益と株式報酬を除くと、Cerebrasの非GAAPベースの純損失は2025年に7,570万ドルで、2024年の非GAAP損失2,180万ドルから拡大した。

営業損失も深刻化した。Cerebrasは2025年に営業から1億4,590万ドルの損失を計上しており、前年の1億140万ドルから増えている。研究開発(2億4,330万ドル、前年比54%増)と、販売・マーケティング(7,060万ドル、前年比237%増)に同社が大きく投資したためだ。

同社は2025年に営業キャッシュフローで1,000万ドルを費消した。これは2024年に計上した現金創出の4億5,200万ドルからの大きな反転であり、2024年は顧客預り金の流入6億400万ドル、主としてG42MBZUAIからの寄与で後押しされた年だった。S-1では、粗利益率が、クラウドのインフラ向けのスタートアップ費用、顧客ワラントの償却、データセンター費用の転嫁(パススルー)といった要因によって、短期的に圧迫されることが警告されている。

この瞬間に至る道のりは、決してなめらかではなかった。Cerebrasは市場の準備が整う前の2020年と2021年に最初のシステムを出荷した。創業者たちが目論見書に書いた通り、同社は「何か途方もなくすごいものを作り上げたが、市場の準備はできていなかった」。そして2022年後半のChatGPTの登場が、すべてを変えた。

2025年の早い時期までに、Cerebrasの速度面での優位性――長らく“解決すべき課題を探している”解としてあったもの――が切実に重要になった。AIコーディングエージェント、深いリサーチツール、リアルタイム音声アプリケーションが、GPUクラスタでは十分に提供しきれない種類の低レイテンシー推論を必要とするようになったからだ。S-1は、AIコーディングエージェントが「2023年にはほとんど存在していなかった」一方で、2025年には合計で「数十億ドルのARRを生み出した」とする市場、そして現在ではプロのコードの42%がAIによって生成されるか、AIによって支援されている市場を描写している。

1,000億ドル規模の評価額を正当化するためにCerebrasが証明すべきこと――そしてできなかった場合に何が起きるか

今後に向けて、Hockは現行世代のハードウェアは単なる始まりにすぎないと示した。「ウェハースケールのエンジン3とCS-3は物語の終わりではありません。始まりにすぎません」と、彼はVentureBeatに語った。「私たちは、ウェハースケール技術を土台にし続け、性能を加速させ、効率を高め、より大規模なスケールを支えるという複数年の技術ロードマップを持っています。」

S-1は、Cerebrasがオンチップメモリと帯域幅を拡張する意向であることを確認している。さらに、インターコネクトの密度を高め、将来のプロセス・ノードの進歩を活用する計画を明らかにし、同社がUAE向けの将来CS-4システムについて、すでに輸出許可を取得済みであることも開示している。

同社はまた、あらゆる組織、ましてやこれまで上場企業として運営したことのない組織にとってはなおさら、試練となる一連の運営リスクにも直面している。同社は半導体の製造をTSMCのみに完全に依存しており、長期の供給コミットメントはない。データセンターのリース期間は何年も続く一方で、推論顧客との契約は短期であることが多いか、あるいは利用量(コンシューマボリューム)ベースであり、固定費と変動する収益の間にミスマッチが生じる。また同社は、財務報告に関する内部統制について重要な弱点を特定している。そして最も重要な顧客関係――OpenAIとの関係――には、Cerebrasが特定の名指しされたOpenAI競合企業と協業することを制限する独占条項が含まれており、将来的な事業の多角化が潜在的に制限される可能性がある。

Cerebrasが1,000億ドルを超える評価額を維持できるかどうかは、これらすべての課題に同時に対処できるかにかかっている。前例のない速さでデータセンターを建設し、単一のファウンドリを通じてウェハースケールのチップを規模化して製造し、最も収益性の高い国際関係における輸出管理を乗りこなし、推論市場を、Nvidiaが戦いなしに明け渡すつもりはないことを示してきた相手と競う必要がある。

しかしCerebrasは、これまで常に、他社が不可能だと言ったことに挑戦する姿勢で作られてきた。ウェハースケールの統合は、半導体業界にとってその存在そのものを通じてつまずきの原因になっていた。ところが今では、食卓の皿ほどの大きさのチップ――かつては工学的な好奇心として退けられていたもの――が、この惑星最速のAI推論を動かし、世界トップクラスのAIラボに提供され、そして上場市場(Nasdaq)にデビューして、多くの同年齢企業を何倍も上回る評価額を得た。世界が準備できていたのだ。Hockは、ラボから取引フロアへの道のりを回想しながらVentureBeatにこう述べた。「IPOは物語の終わりではありません。始まりです。」