MicrosoftがNVIDIA Rubin世代のAIデータセンター展開に向けた戦略を公開
Microsoftは、NVIDIA次世代アクセラレーテッドコンピューティングプラットフォーム「Vera Rubin NVL72」を大規模展開する初のハイパースケールクラウドプロバイダーになることを発表した。CES 2026においてNVIDIA Rubinプラットフォームの登場とともに、Azureがすでに受け入れ準備を整えていることが明らかになった。
数年先を見越したデータセンター設計
Azureのデータセンター戦略は、次世代GPUの電力・冷却・メモリ・ネットワーク要件を業界の数年先を見越して設計されている点が大きな特徴だ。ウィスコンシン州およびアトランタの「Fairwater」サイトをはじめとする次世代AI超大型ファクトリー(AIスーパーファクトリー)において、Vera Rubin NVL72ラックをシームレスに統合できる体制が整っている。
NVIDIA Rubin世代のAIインフラは電力・冷却・性能最適化の面で大幅なアップグレードを必要とするが、MicrosoftはFairwaterサイトでの運用実績と複数世代にわたる刷新経験を通じて、技術進化に柔軟に対応できる能力を証明してきた。
GPT-3.5を支えたインフラが次のステージへ
MicrosoftはNVIDIA Ampere・Hopperの大規模初期導入においても先行しており、NVIDIA Quantum-2 InfiniBandネットワークで接続されたクラスターがGPT-3.5などの大規模言語モデルの実現を支えた。さらにスーパーコンピューティング性能記録の更新にも貢献しており、次世代システムをより速く、より高い実世界性能で稼働させる能力を示している。
また、NVIDIA GB200 NVL72およびGB300 NVL72プラットフォームについても、業界初かつ最大規模の実装を公開済み。これらは単一のスーパーコンピューターとしてラックに統合され、AIモデルの学習を飛躍的に高速化する。
システム全体最適化がAzureの競争優位
Azureの強みは単なるGPUの追加にとどまらない。コンピュート・ネットワーキング・ストレージ・ソフトウェア・インフラすべてを統合プラットフォームとして設計する「システムズアプローチ」が根幹にある。
具体的には以下の要素が連携して動作する:
- Azure Boost:IO・ネットワーク・ストレージのボトルネックを解消するオフロードエンジン
- 高スループットBlobストレージ:大規模クラスターへのデータ供給を安定化
- CycleCloud / AKS:大規模クラスタースケールでの低オーバーヘッドスケジューリング
- 液冷式熱交換ユニット(HEU):精密な温度管理を実現
- Azure HSMシリコン:セキュリティ処理をオフロード
- Azure Cobalt:汎用コンピュートおよびAI周辺タスクの高効率処理
推論ワークロードで50ペタFLOPSへ
NVIDIA Vera RubinスーパーチップはNVFP4精度で50ペタFLOPSの推論性能を提供する見込みで、推論ヘビーなワークロードに最適化されたインフラとしてAzureが提供する。
日本企業においても大規模言語モデルの推論コスト削減は急務であり、Azure上でのRubinプラットフォーム活用は、AIサービスの経済性を大きく変える可能性がある。MicrosoftとNVIDIAの長期的な協業関係が、クラウドAIインフラの次世代標準を築きつつある。
元記事: Microsoft’s strategic AI datacenter planning enables seamless, large-scale NVIDIA Rubin deployments