Anthropicが2026年4月6日、GoogleおよびBroadcomとの間で複数ギガワット規模の次世代TPU(Tensor Processing Unit)調達契約を締結したと発表した。2027年以降に順次稼働予定のこのインフラ拡張は、同社史上最大規模のコンピュートコミットメントとなる。背景には、企業顧客からの需要が想定を超えて急拡大しているという事実がある。

収益の爆発的成長と1000社超の大口顧客

Anthropicの年換算収益(Run-rate Revenue)は、2025年末時点の約90億ドルから2026年4月時点で300億ドルを突破した。わずか数ヶ月で3倍以上に拡大した計算になる。

さらに注目すべきは、年間100万ドル以上を支出する企業顧客の数だ。2026年2月に行われたシリーズG資金調達の発表時点では500社超だったが、2ヶ月も経たないうちに1,000社超へと倍増している。単なるパイロット導入やPoC(概念検証)フェーズを終え、本番稼働・大規模展開に移行している企業が世界規模で急増していることを示す数字だ。

こうした需要の急増に対応するため、Anthropicは2025年11月に発表した「米国コンピュートインフラへの500億ドル投資」コミットメントの延長線上として、今回の大規模契約に踏み切った。新たに確保するコンピュートの大部分は米国内に設置される見込みだ。

マルチクラウド・マルチチップ戦略の深化

今回の発表で見落とせない点が、Anthropicのハードウェア・クラウド戦略の多様性だ。

AnthropicのClaudeは現在、以下の環境で訓練・推論を実行している:

  • AWS Trainium(Amazonのカスタムチップ)
  • Google TPU(Googleのカスタムアクセラレータ)
  • NVIDIA GPU(汎用GPUの業界標準)

そしてClaudeは現時点で、世界最大の3大クラウドすべてで提供されている唯一のフロンティアAIモデルだという。

  • Amazon Web Services(Bedrock経由)
  • Google Cloud(Vertex AI経由)
  • Microsoft Azure(Azure AI Foundry経由)

このマルチクラウド展開は、エンタープライズ顧客にとって調達の選択肢が広がることを意味する。既存のクラウド契約や社内のセキュリティ・コンプライアンス要件に合わせて利用基盤を選べるのは、導入ハードルの低減につながる。

実務への影響——日本企業がいま考えるべきこと

このニュースが日本のIT現場に示唆するポイントは、主に以下の3点だ。

① AIインフラの「競争条件」が変わりつつある ギガワット単位の計算資源を確保できる企業と、できない企業の間に、フロンティアモデルの性能差として現れてくる。日本企業がAPIとして利用する場合、このインフラ差は直接パフォーマンスの差になる。SLAや可用性の観点から、サービス選定時にはインフラ投資の規模も判断材料に含めるべき時代に入った。

② マルチクラウド対応は「乗り換えやすさ」ではなく「使い分け」の時代へ Azureをメインに使っている企業であれば、Azure AI Foundry経由でClaudeを利用できる。既存のAzureガバナンスポリシーやコスト管理の枠組みの中でフロンティアAIを導入できることは、IT管理者にとって朗報だ。今後はモデル選択とクラウド選択を切り離して考える設計が標準になっていくだろう。

③ 「AIを試す段階」はとっくに終わった 1,000社超がそれぞれ年間1億円以上を投じているという事実は、グローバルではAIが既にコア業務インフラとして本格稼働していることを示す。「まだ検討中」「PoC中」という国内企業は、競合との差がリアルタイムで広がっていると認識すべきだ。

筆者の見解

ギガワット規模のコンピュートという数字は、一見すると遠い世界の話に聞こえるかもしれない。しかし実態はシンプルだ——このインフラ投資の差が、1〜2年後にエンドユーザーが日常的に触れるAIモデルの能力差として直接現れてくる。

個人的に興味深いのは、Anthropicがマルチチップ・マルチクラウド戦略を「パフォーマンスと耐障害性の向上」と位置づけている点だ。特定のハードウェアやクラウドへの依存を排し、ワークロードに最適なチップを選択できる設計思想は、AIインフラ設計の手本として参考になる。

AIエージェントが自律的にループで判断・実行・検証を繰り返す「ハーネスループ型」の活用が実務の現場で広がりつつある今、それを支える推論インフラの安定性と拡張性は以前より格段に重要になっている。今回の契約発表は、その需要が既に収益の数字として顕在化していることの証左でもある。

日本のIT現場においても、「AIを使うかどうか」の議論は終わっている。問われているのは「どのインフラで、どの設計で、どこまで自律化するか」だ。グローバルの大口顧客が既に答えを出しつつある今、日本企業にも同じ問いへの回答が迫られている。


出典: この記事は Anthropic expands partnership with Google and Broadcom for multiple gigawatts of next-generation compute の内容をもとに、筆者の見解を加えて独自に執筆したものです。