AIの急拡大が、私たちが日常的に使うデバイスのコストにじわじわと影響を及ぼし始めている。スマートフォン、ノートPC、VRヘッドセット——これらすべてに使われているDRAMの供給不足が深刻化しており、2027年末時点でも需要の60%しか満たせないとの見通しが日経アジアの報道で明らかになった。SK グループの会長に至っては、この状況が2030年まで続くと言及している。
なぜ今、こんなにメモリが足りないのか
Samsung、SK Hynix、Micron——世界の三大メモリメーカーはいずれも新しい製造拠点(ファブ)の建設を進めているが、それらが稼働するのは早くて2027年、多くは2028年以降の見込みだ。2026年中に新規稼働するのは、SK Hynixが2月に開設した韓国・清州(チョンジュ)の工場のみという状況である。
Counterpoint Researchの試算によれば、需要に追いつくには2026〜2027年の各年で生産量を12%増やす必要があるが、実際に計画されているのは7.5%増にとどまる。この5ポイント弱の差が、数年にわたる慢性的な供給不足につながっている。
問題の核心:HBMとDRAMの「取り合い」
ここで重要なのが、新しいファブが何を作るかという点だ。各社が優先的に生産しようとしているのは、HBM(High Bandwidth Memory:高帯域幅メモリ)——AIデータセンターのGPUに搭載される特殊なメモリである。
HBMはAIの学習・推論処理において不可欠な部品であり、需要は爆発的に伸びている。メーカー各社にとってHBMは高付加価値製品であり、そちらへリソースを振り向けるインセンティブが強い。その結果、スマートフォンやPCに使われる汎用DRAMの生産が相対的に後回しになるという構図が生まれている。
つまり今起きているのは、AIが「メモリの優先席」を占拠したことで、一般向けデバイスへのしわ寄せが続いている状況だ。
実務への影響——日本のエンジニア・IT管理者が知っておくべきこと
デバイス調達は「早め・まとめ」で
PC、スマートフォン、タブレットの価格は今後も上昇圧力にさらされる。年度末の一括調達を毎年繰り返すサイクルを見直し、使えるうちに計画的に調達・更新するアプローチが現実的だ。特に2027〜2028年に向けて調達コストが高止まりすると見ておいたほうがいい。
サーバー・クラウド戦略の見直し
オンプレミスのメモリ増設コストが上昇する中、クラウドシフトやメモリ最適化インスタンスの選択が相対的に有利になる局面もある。ただし、クラウド側のGPUインスタンスも同じメモリ不足の影響を受けるため、価格と可用性のトレンドを継続的にウォッチすることが重要だ。
AI活用コストの試算に「メモリ代」を組み込む
AI推論基盤を自社で構築・運用する場合、HBM搭載GPUの調達難と価格高騰は直撃リスクになる。外部APIを活用するアーキテクチャと自社運用の比較試算には、2〜3年後のメモリコスト上昇を織り込むことを強く推奨する。
ゲーミングPC・エッジデバイスのコスト管理
VRヘッドセットやゲーミングハンドヘルドにも値上げの波が来ている。業務でこうした端末を活用している場合(XRを使ったトレーニング等)、調達タイミングと予算計上の見直しが必要だ。
筆者の見解
この状況を見て感じるのは、AIの需要規模が「想定外のスピードで物理インフラを侵食し始めた」という事実だ。
AIエージェントが自律的にループで動き続けるような仕組みが次々と実用化され、推論処理の量は今後さらに指数的に増える。それを支えるHBMの需要は、今の供給計画では到底追いつかない。2030年まで供給不足が続くというSKグループの見立ては、むしろ保守的かもしれないとさえ思う。
IT現場にとって厄介なのは、この余波がHBMと関係のない汎用デバイスにまで波及している点だ。AIデータセンターのために一般消費者・企業が割を食う構造は、半導体業界全体の設備投資が追いつくまで解消しない。
ポジティブに見れば、これは逆説的に「AIを使いこなす側に回ることの重要性」を示している。物理的なメモリという希少資源を、クラウド上のAPIやマネージドサービスを通じて間接的に利用することで、リソース調達の重荷を相対化できる。自社でGPUクラスタを抱えることへの固執より、「仕組みを設計してAIに動かせる能力」に投資する方が、この局面では賢明だ。
メモリ不足は数年単位の構造問題である。一時的なコスト吸収で乗り切ろうとするより、この状況を前提にしたアーキテクチャ選択と調達戦略の刷新を今から進めるべきタイミングだと筆者は考える。
出典: この記事は The RAM shortage could last years の内容をもとに、筆者の見解を加えて独自に執筆したものです。