MetaとArmがAIデータセンター向け独自CPUを共同開発
AIデータセンター向けハードウェアの需要が急拡大する中、MetaとArmが独自CPUの共同開発に着手したことが明らかになった。両社は重量級AIワークロードへの対応を念頭に置き、汎用的な既製品ではなく自社ニーズに特化したプロセッサの設計を進めている。
なぜ今、独自CPUなのか
AIの学習・推論処理は従来のサーバーワークロードとは性質が大きく異なり、大規模な行列演算や高帯域メモリアクセスが求められる。GPUがAI処理の主役として注目される一方で、データセンター全体の制御や前処理・後処理を担うCPUも、AIワークロードに最適化されていなければボトルネックになりかねない。
MetaはすでにAIアクセラレータ「MTIA(Meta Training and Inference Accelerator)」の独自開発を進めており、今回のCPU開発はその延長線上にある。自社のAIインフラ全体をコントロールすることで、電力効率・コスト・パフォーマンスのすべてを最大化する狙いだ。
Armアーキテクチャを選んだ理由
パートナーにArmを選んだ背景には、同社のアーキテクチャが持つ電力効率の高さがある。Armベースのサーバー向けプロセッサはAWS(Graviton)やAmpere Computingなどがすでに実績を積んでおり、x86系に比べてワットパフォーマンスに優れると評価されている。AIデータセンターでは電力消費がコスト構造を大きく左右するため、この点は重要な選定基準となる。
自社チップ戦略の加速する競争
テック大手による自社チップ開発の潮流は今や業界全体のトレンドだ。GoogleはTPU(Tensor Processing Unit)で先行し、AmazonはTrainiumとInferentia、MicrosoftはMaia 100をそれぞれ投入している。Appleのシリコン戦略が示したように、ハードウェアとソフトウェアを垂直統合することで得られるメリットは大きく、AIの時代においてその重要性はさらに増している。
日本企業にとっても、データセンター戦略やAIクラウドサービスの調達において、こうした独自チップの動向は無視できない要素となりつつある。NVIDIAのGPUへの依存を分散させようとするビッグテックの動きは、中長期的にAIチップ市場の競争環境を塗り替えていく可能性がある。
MetaとArmの協業がどのような製品として結実するか、詳細なスペックや量産時期はまだ明らかにされていないが、AIインフラ内製化競争の新たな一手として業界の注目を集めている。