何が起きたのか

Amazonは先日、UberがAWSとの契約を拡大し、ライドシェア機能の多くをAmazon独自設計のチップ上で稼働させると発表した。具体的にはARMベースのサーバーCPU「Graviton」の利用拡大と、AmazonのNvidia対抗AIアクセラレーター「Trainium3」の試験導入が柱となる。

注目すべきは、UberはついこのあいだまでOracleとGoogle Cloudを主軸に据えていたという点だ。2023年にはこの2社と複数年の大型クラウド契約を結び、自社データセンターからの脱却を宣言したばかり。にもかかわらず、わずか3年足らずでAWSに大きく舵を切った。

AWSの独自チップ戦略とは

GravitonとTrainium——「脱Nvidia」の現実解

AWSが自社設計チップに力を入れ始めてからしばらく経つが、ここにきてその戦略が実を結びつつある。

GravitonはARM命令セットをベースにしたサーバーCPUで、電力効率に優れ、同等性能のx86サーバーと比較してコストパフォーマンスが高い。Uberは以前からARM系チップの導入実績があり(OracleクラウドのAmpereチップを活用)、アーキテクチャ上の親和性が高い。

Trainium3はAI/ML推論・学習に特化したアクセラレーターで、AmazonはNvidiaのGPU需要逼迫という市場構造を巧みに活用。すでにこのビジネスは数十億ドル規模に達していると報じられており、AppleやOpenAI、そして大手AIスタートアップなど名だたる企業がAWSのチップ上でワークロードを走らせている。

Oracle・Ampere・SoftBankが絡む複雑な背景

この話にはもう一つ、見逃せない文脈がある。Uberが以前使っていたORacle CloudのARMチップ「Ampere」は、元Intelの大物Renée Jamesが創業した企業が設計したものだ。OracleはかつてAmpereの約3分の1の株式を保有していたが、昨年末にSoftBankがAmpereを買収。OracleはプレタックスベースでAmpereの持ち分を27億ドルで売却し、その資金でNvidiaチップの大量購入に転じている。

Oracle自身も今やOpenAIやStargateプロジェクト向けのデータセンター建設に資金を集中しており、チップを自社設計することに競争優位を見出せなくなったとEllison CEOは明言している。

この複雑なシリコンバレーの利害関係の網の中で、AWSはひっそりと「自社チップを持ち、かつクラウドとして提供できる」という独自ポジションを確立してきた。

実務への影響——日本のエンジニア・IT管理者に伝えたいこと

ARMへの移行を真剣に評価すべき時期

Uberのような大規模ワークロードがARM系チップに移行するのは、単なる話題にとどまらない。x86前提のソフトウェアスタックを持つ企業は、今後クラウドコストの最適化を議論するたびにARMへの対応が議題に上がることになる。コンテナ(特にDocker / Kubernetes)環境ではマルチアーキテクチャビルドへの対応が実務的な課題として浮上する。

具体的な行動として以下を検討してほしい。

  • AWS Gravitonインスタンスの試験導入: EC2のGravitonインスタンスは同等スペックのx86比で最大40%のコスト削減をうたっており、ステートレスなAPIサーバーやバッチ処理から試すのが現実的
  • マルチアーキテクチャ対応の確認: CI/CDパイプラインでARM向けビルドが通るか確認する。GitHub ActionsやAWS CodeBuildはGraviton上での実行をサポート済み
  • AIワークロードのチップ選定は「Nvidiaだけ」前提を外す: Trainium / Inferentiaは推論コストでNvidiaに対して競争力を持つケースが出てきている。用途・ボリュームによっては検討する価値がある

クラウド戦略の見直し——マルチクラウドの「摩擦」に注意

2023年にUberがOracle+Google Cloudというデュアルクラウドを選んだ理由はリスク分散と競争原理の活用だった。それが3年でAWSへの集約に向かいつつあるという事実は、マルチクラウド戦略が想定より運用コストを押し上げたことを示唆している。

「部分最適の積み重ねは全体として高コストになる」という現実は、規模は違えど国内企業にも共通する。クラウド選定は初期の安さや機能の多さだけでなく、エコシステムの一貫性・運用コスト・チップ戦略まで含めた視点で評価することが重要だ。

筆者の見解

AWSが自社設計チップでここまで大手企業を次々と引き寄せている構図は、クラウド業界における「垂直統合の再評価」を象徴していると思う。シリコン・クラウド・ソフトウェアを一気通貫で設計・提供できる事業者が、長期的なコスト競争力と顧客ロックインの両方を手に入れる——これはAppleがデバイス領域でやってきたことと本質的に同じ話だ。

Nvidiaの強さは揺るぎないが、「NvidiaのGPUをクラウドで借りる」というモデルは、Nvidiaへの依存と高コストを両方抱えることを意味する。AWSがTrainiumで十分なエコシステムを作り上げれば、AIワークロードの経済合理性が大きく変わる可能性がある。

日本企業に伝えたいのは「情報を追うことより、実際に使って成果を出すこと」というシンプルなメッセージだ。Gravitonインスタンスを1台試すのは数時間もあればできる。Trainium3の動向を観察しながら、自社のAIワークロードがどのチップで最もコスト効率よく動くかを実験ベースで把握しておくことが、これからのエンジニアに求められる実践的なリテラシーになる。

クラウドとチップの覇権争いはまだ序章だ。「どのクラウドを選ぶか」という意思決定が「どのチップ・どのAIエコシステムを選ぶか」と不可分になっていく時代が、確実に近づいている。


出典: この記事は Uber is the latest to be won over by Amazon’s AI chips の内容をもとに、筆者の見解を加えて独自に執筆したものです。