AI推論の速度競争が新たな局面を迎えている。シリコンバレー発のAIチップスタートアップ、Cerebras Systemsが2026年4月、米証券取引委員会(SEC)に上場申請書を提出した。同社はかつて2024年にも上場を試みたが、アブダビ系投資ファンドG42からの出資をめぐる連邦審査によって申請を取り下げた経緯がある。今回の再挑戦は、AWSおよびOpenAIとの大型契約という強力な追い風を受けてのものだ。

Cerebrasとは何者か——ウェーハースケール統合という異端の発想

一般的なAI用GPU(例:NvidiaのH100)は、数センチ角のダイをパッケージングした構成をとる。一方、Cerebrasが採用するのは「ウェーハースケール・エンジン(WSE)」と呼ばれる設計で、シリコンウェーハ1枚まるごとを単一チップとして使用する。ダイ間の通信遅延を排除し、きわめて高いメモリ帯域幅を実現することで、特に推論(インファレンス)フェーズにおける速度で際立った性能を発揮する。

CEOのアンドリュー・フェルドマン氏は、この優位性をこう表現した。「OpenAIの高速推論ビジネスをNvidiaから奪った」——挑発的な言い回しだが、実態を伴う発言だ。

資金調達と財務の現状

直近の資金調達では、2025年にシリーズGで11億ドル、2026年2月にはシリーズHで10億ドルを調達し、評価額は230億ドルに達した(Wall Street Journal報道)。

2025年通期の売上高は5億1,000万ドル。GAAPベースの純利益は2億3,780万ドルと黒字計上だが、一時的項目を除いた非GAAPベースでは7,570万ドルの純損失となる。スタートアップとしては異例なほど大きな売上規模であり、事業の実態は着実に育っている。IPOでの調達希望額は未公表。上場は5月中旬を計画している。

AWSとOpenAIとの契約が示す意味

今回の申請で注目すべきは財務数値だけではない。AmazonのクラウドインフラAWSがCerebrasチップをデータセンターに採用する契約、そしてOpenAIとの総額100億ドル超とされる契約の2件は、市場構造に対するシグナルとして重要だ。

AWS・Azure・Google Cloudといった大手クラウドは、Nvidiaへの依存度を下げるべく複数のAIチップ調達先を探している。Cerebrasはその候補として本命に浮上した。AIハードウェアの独占状態に変化が生じ始めたと見ていい。

実務への影響——日本のエンジニア・IT管理者が押さえるべきこと

クラウド経由のアクセスが現実的な選択肢に: Cerebrasのチップを直接購入・運用するのは現状、大規模データセンターを持つ事業者に限られる。しかし、AWSを通じた利用が可能になれば、日本のエンジニアもAWSコンソールからCerebras推論エンドポイントにアクセスできる日が来る可能性がある。現時点でAWS上の提供形態の詳細は未公開だが、動向を注視しておく価値は十分ある。

推論速度が要件になるユースケースを洗い出す: トークン生成速度が速いほど有利なシナリオとして、リアルタイム音声対話、大量文書の一括処理、自律的なループ実行(エージェント処理)などが挙げられる。現在のワークロードでレイテンシがボトルネックになっているかどうか、今のうちに確認しておくと判断材料が増える。

Nvidiaの代替を検討するタイミング: Nvidiaが市場を支配していることに変わりはないが、調達リスクの観点から複数ベンダー体制を検討している企業にとって、CerebrasのIPOは市場の選択肢が広がるサインだ。

筆者の見解

Cerebrasの上場申請を見て率直に思うのは、AIの速度競争がハードウェア層でも本格化してきたという事実だ。

AIエージェントが自律的に判断・実行・検証を繰り返すループ(いわゆるハーネスループ)を設計するとき、推論速度の遅さは直接的な制約になる。トークン生成に時間がかかるほど、エージェントが一周するのに時間がかかる。速いチップはそれだけでエージェントの設計自由度を広げる。Cerebrasが「高速推論」を軸に据えているのは、この潮流と正確に合致している。

一方で、23億ドルの評価額と、GAAPベースでは黒字に見えるが非GAAPでは赤字という財務構造には冷静な目が必要だ。主要顧客がOpenAI・AWSに集中しており、契約が一部でも想定と違う結果になれば業績への影響は大きい。IPO後の株価形成は、こうした集中リスクをどう織り込むかにかかっている。

Nvidiaというインフラ独占企業に真正面から挑む企業が実際に大型契約を取り、黒字ベースの売上を積んでIPOを迎える——これが現実になっていること自体、AI時代のハードウェア市場が固定化されたものではないことを示している。日本のIT現場でも、AIが当たり前のインフラになっていくにつれ、どのチップ・どのクラウドで推論するかは、コストとパフォーマンスに直結する選択になっていく。今のうちに自分のユースケースと照らし合わせて整理しておくことをお勧めしたい。


出典: この記事は AI chip startup Cerebras files for IPO の内容をもとに、筆者の見解を加えて独自に執筆したものです。