AI開発は「壁」に近づいているのか? 答えは明確だ
ここ数年、「AIの進化はそろそろ限界が来る」という論調が繰り返し浮上してきた。データが枯渇する、Moore’s Lawが鈍化している、エネルギーが足りない——。こうした懐疑論が出るたびに、AIの実績はそれを打ち消してきた。
MicrosoftのAI部門を率いるムスタファ・スレイマン氏が、MIT Technology Reviewに寄稿した論考でこの問いに正面から答えた。数字と事実を積み重ねたその内容は、AIの現在地を理解する上で見逃せない。
兆倍という数字の重み
スレイマン氏は2010年からAI開発に携わってきた。その時点でのフロンティアモデルの学習計算量は約10¹⁴フロップス(浮動小数点演算)。現在の最大モデルは10²⁶フロップス超に達する。差は1兆倍だ。
私たちの直感は線形世界向けに最適化されている。1時間歩けば一定距離、2時間歩けばその倍——こういった感覚では、兆倍という数字の意味を体で理解することができない。それがAI懐疑論が繰り返し「間違える」構造的な理由だとスレイマン氏は指摘する。
三つの力が同時に収束した
この指数的成長を支えているのは、ハードウェアとソフトウェアの複数の進歩が同時に起きていることだ。
1. チップ性能の向上
NvidiaのGPUは6年間で生のパフォーマンスが7倍以上に向上した(2020年: 312テラフロップス → 現在: 2,250テラフロップス)。Microsoftが今年1月に発表した独自チップ「Maia 200」は、同社既存のフリート内のいかなるハードウェアと比べてもドルあたりのパフォーマンスが30%高いという。
2. データ転送速度の革命(HBM)
高帯域メモリ(HBM: High Bandwidth Memory)はチップを垂直に積層する技術だ。最新世代のHBM3は前世代の3倍の帯域幅を実現し、プロセッサをアイドル状態のまま「待たせる」時間を劇的に削減した。これは「計算機を持った人の部屋」全員が常に働き続けられる状態に相当する。
3. 超大規模クラスタ化
NVLinkやInfiniBandなどの技術により、数十万基のGPUをウェアハウス規模の超コンピューターとして一体的に動作させることが可能になった。2012年にAlexNetが2基のGPUで動いていた時代と比べ、現在の大規模クラスタは10万基超——それぞれ当時よりはるかに高性能だ。
成果:学習時間が167分→4分以下に
2020年には8基のGPUで167分かかっていた言語モデルの学習が、現代のハードウェアでは4分未満で完了する。Moore’s Lawが予測する5倍に対し、実際は50倍の改善が実現した。
ソフトウェア効率化も加速している
Epoch AIの調査によれば、「同等の性能に必要な計算量」はおよそ8ヶ月ごとに半減している。これはMoore’s Lawの倍増周期(18〜24ヶ月)より大幅に速い。一部の最新モデルでは、サービス提供コストが年率換算で最大900倍も下がったケースもある。
フロンティアラボが年率4倍近いペースでキャパシティを拡張しており、2020年以降のフロンティアモデルの学習計算量は毎年5倍で増加し続けている。
実務への影響——日本のエンジニア・IT管理者はどう動くべきか
この「コスト崩壊」が意味するのは、AI活用の参入障壁が加速度的に下がっているということだ。具体的なアクションポイントを挙げる。
• AIコストの再評価を今すぐ行う 昨年「高すぎる」と判断して見送ったAI活用案を、今年の料金体系で再計算すべきだ。年率換算で数百倍コスト効率が改善しているサービスもあり、試算が全く別の結論になることがある。
• 「小さく試す」コストがほぼゼロになっている PoC(概念実証)を重ねることへのコスト的障壁はほぼ消えた。失敗コストが小さいうちに多くの実験をすることが、AI活用の実力を鍛える最速ルートだ。
• 自律型エージェントの設計が次のフロンティア コンピュート爆発の恩恵は、単発のプロンプト応答より「エージェントが自律的にループし続ける」設計に最も大きく現れる。確認を人間に都度求める設計から、目的を与えれば自律実行するアーキテクチャへのシフトを検討する段階に来ている。
• Maia 200に注目 Microsoftが自社チップを本格投入したことは、クラウドインフラの内製化戦略の加速を意味する。Azureのインフラ単価に今後どう反映されるか、コスト試算を更新しておく価値がある。
筆者の見解
スレイマン氏が示した数字は誠実だ。「兆倍」「50倍の改善」「コスト900分の1」——これらは宣伝文句ではなく、実測値に基づく事実として提示されている。指数的成長に対する人間の直感的な誤認を正面から指摘した点も正しい。
MicrosoftがMaia 200という独自チップを持ち、NVLinkやHBMへの投資を着実に積み上げているという事実は、ハードウェア依存から脱却しようとする本気度を示している。これは正しい方向だ。
その上で一つだけ申し上げたい。これほどの計算インフラと人材と資本を持つMicrosoftなら、AIエージェントの分野でも世界をリードする力が十分ある。「コンピュートの爆発」という土台は誰よりも盤石に整えてきた。あとはその上で何を作るか——ここが問われる段階に入っている。
スレイマン氏が今回示したような技術的誠実さが、エンドユーザーの体験にも直結する形で現れてくることを、一人のMicrosoft推しとして心から期待している。「壁は来ない」という自信が、どんなユーザー体験として結実するか。それがこれからの本番だ。
AI活用が「コストの問題」から「意思と設計の問題」に移行している今、日本のIT現場で一番必要なのは情報収集の量を増やすことではない。手を動かし、自分の業務でAIに自律的に動いてもらう仕組みを一つでも作ること——それが最も確実な生き残り策だ。
出典: この記事は Mustafa Suleyman: AI development won’t hit a wall anytime soon—here’s why の内容をもとに、筆者の見解を加えて独自に執筆したものです。