KubernetesがAIインフラの「OS」へ——MicrosoftがKubeCon 2026で大規模アップデートを発表

Microsoftはアムステルダムで開催されたKubeCon Europe 2026において、Kubernetesをクラウドネイティブアプリの制御基盤から「AIインフラのオペレーティングシステム」へと進化させる一連の取り組みを発表した。生成AIが実験段階を脱し、エンタープライズ本番環境で本格稼働するフェーズに入ったいま、GPUスケジューリング・ネットワーキング・セキュリティ・可観測性を統合した基盤の整備が急務となっており、今回の発表はその回答とも言える内容だ。

Dynamic Resource Allocation(DRA)がGA——GPU割り当てがKubernetesネイティブに

最大のハイライトは、Dynamic Resource Allocation(DRA) のKubernetes正式版(GA)への昇格だ。これまでGPUなど特殊ハードウェアの割り当ては、ベンダー独自のデバイスプラグインに依存する静的な仕組みで管理されており、マルチクラウド環境でのスケールに限界があった。DRAはこれを宣言的かつKubernetesネイティブな方法に置き換えるもので、GPUの種類・NICとの近接性・メモリ容量・ネットワーク経路といったトポロジー要件を一元的に記述できる。分散推論・分散トレーニングを前提とした大規模AIクラスターの運用において、この変更は実用上の大きな前進だ。

OSS推論API「AI Runway」を公開

MicrosoftはAIモデルのサービング標準化を目的としたAI Runwayをオープンソースの推論APIとして発表した。モデルデプロイメントの複雑さを抽象化し、Kubernetes上での推論ワークロード管理を簡素化することを目指す。KubeRayとのDRA統合も同時に発表されており、GPUリソースをより細かくコントロールしながら分散推論を動かせる環境が整いつつある。

AKS:Blue-greenアップグレードとKarpenterによるクロスクラウドGPUスケジューリング

Azure Kubernetes Service(AKS)側では、Blue-greenエージェントプールアップグレードノードプールロールバック機能が追加された。これにより本番環境を止めずにノードOSやKubernetes自体のアップグレードが行えるようになり、SREチームの運用負担が軽減される。

さらにKarpenterを活用したGPU容量のクロスクラウドスケジューリングが可能になる。AI推論需要は時間帯やモデルサイズによって大きく変動するため、静的なキャパシティプランニングではなく弾力的なスケジューリングが求められており、この機能はその直接的な解答となる。

サイドカーレスmTLSとCiliumによるeBPF駆動のセキュリティ

ネットワーク面では、サイドカーレスmTLSメッシュレスIstioサポートの強化が発表された。従来のサービスメッシュはPodごとにプロキシサイドカーを注入する設計が多く、GPUメモリやコアが貴重なAI環境ではオーバーヘッドが問題となっていた。CiliumのeBPFベースのアプローチはセキュリティとテレメトリーをデータプレーンに近い層で処理することでこの課題を解消する。

HolmesGPTとDalecでCNCFエコシステムへの貢献も

MicrosoftはAIエージェントによるKubernetes自律運用ツールHolmesGPTや、コンテナサプライチェーンセキュリティのためのビルドシステムDalecをCNCFへコントリビュートすることも明らかにした。AKSを単に「優れたマネージドKubernetes」として訴求するだけでなく、CNCF upstream自体を通じてエコシステム全体の方向性を形成しようとする戦略は、クラウドロックイン回避を求めるエンタープライズユーザーにとっても歓迎される動きだ。

国内エンタープライズへの示唆

日本においても、生成AIをPoC(概念実証)から本番運用へ移行する段階に差し掛かっている企業は多い。KubernetesをAIワークロードの基盤として採用する動きが加速するなか、今回のMicrosoftの発表はAKS採用者はもちろん、オンプレやマルチクラウドでKubernetesを運用するプラットフォームエンジニアにとっても参照すべき重要なロードマップとなるだろう。


元記事: Microsoft KubeCon 2026: Kubernetes Becomes AI Infrastructure OS with DRA, AI Runway & Cilium