AIブームの裏側で膨らむ「計算資源の無駄」
AI需要が爆発的に拡大する一方で、企業のクラウドインフラには深刻な非効率が潜んでいる。GPUが遊休状態のまま放置され、ワークロードは過剰にプロビジョニングされ、クラウドコストは膨らみ続ける——。KubernetesスタートアップのScaleOpsは「問題はGPU不足ではなく、管理の失敗だ」と断言する。
同社は2026年3月31日、シリーズCラウンドで1億3000万ドル(約190億円)を調達したと発表した。企業評価額は8億ドル(約1170億円)。ラウンドをリードしたのはInsight Partnersで、既存投資家のLightspeed Venture Partners、NFX、Glilot Capital Partners、Picture Capitalも参加した。
NvidiaがM&AしたRun:ai出身の創業者が見た「現場の苦悩」
ScaleOpsを2022年に共同創業したYodar Shafrir CEOは、NvidiaがM&Aで買収したGPUオーケストレーション企業Run:aiの元エンジニアだ。Run:ai時代に多くの顧客——特にDevOpsチーム——と接する中で、彼は一つのパターンに気づいた。
「Run:aiのサービスを気に入っていたお客様でも、本番ワークロードの管理には苦労していた。AIの推論ワークロードが増えるにつれてその問題は顕著になった。俯瞰してみると、課題はGPUだけじゃない。コンピュート、メモリ、ストレージ、ネットワーク全体に及んでいた」(Shafrir氏)
DevOpsチームは問題が発生するたびに複数の関係者を巻き込んで対応に追われるが、多くの既存ツールは「可視化」止まりで根本的な解決策を提供できていないという。
Kubernetesの「静的設定問題」をリアルタイム自動化で突破
ScaleOpsが解決しようとするのは、Kubernetes固有の構造的な課題だ。
「Kubernetesは優れたシステムで、柔軟性も設定自由度も高い。だがそれが問題でもある。Kubernetesは静的な設定に依存しているが、現代のアプリケーションは極めて動的だ。各アプリが何を必要とし、どう振る舞い、環境がどう変化しているかを理解するものが必要だ」(Shafrir氏)
同社のプラットフォームはアプリケーションの要求とインフラ側の意思決定をリアルタイムで連携させ、エンドツーエンドで自律的にリソースを管理する。手動設定不要で「箱から出してすぐ使える(out of the box)」設計が特徴で、コンテキストを理解した上で動作するため、既存の自動化ツールが引き起こしがちなパフォーマンス低下やダウンタイムを防ぐという。
同社はクラウドおよびAIインフラコストを最大80%削減できると主張しており、本番環境向けに設計された点で競合のCast AI、Kubecost、Spotとの差別化を図る。
日本企業にとっての示唆
GPU不足とクラウドコスト高騰は日本のAI活用企業にとっても切実な課題だ。ScaleOpsのアプローチが示す「調達より最適化」という発想は、限られたGPUリソースを最大限に活かしたい企業にとって重要な視点となるだろう。ニューヨーク本社の同社が日本市場への展開をどのように進めるか、今後の動向が注目される。
元記事: ScaleOps raises $130M to improve computing efficiency amid AI demand