Microsoftがソブリンクラウド戦略を大きく前進させた。Azure Local DisconnectedとMicrosoft 365 Local Disconnectedが正式GA(一般提供開始)となり、完全ネットワーク分離環境でもAzureのガバナンスと生産性スイートをフル活用できるようになった。さらにFoundry Localが大規模マルチモーダルLLMのオフライン実行に対応し、クラウドに繋がらない環境でもエンタープライズグレードのAI推論が可能になった。
Azure Local Disconnectedとは何か
Azure Local Disconnectedは、インターネット接続がない完全エアギャップ(air-gapped)環境においても、Azureのポリシー管理・ガバナンス・コンプライアンス機能を維持しながら基幹インフラを運用できるソリューションだ。
Microsoft 365 Local Disconnectedを利用すれば、Exchange Server、SharePoint Server、Skype for Business Serverなどのコアワークロードを少なくとも2035年までサポートを受けながらオンプレミスで継続運用できる。データの管理・アクセス制御・コンプライアンスをすべて自組織の手元で完結させる、まさに「クラウドの恩恵を受けながら外には出さない」という構成が実現する。
Foundry LocalがNVIDIA・AMD GPUで大規模LLMをオフライン実行
今回の発表でもう一つ注目すべきは、Foundry Localの大幅な機能拡張だ。
Foundry Localはこれまでデスクトップ・ラップトップ・IoTデバイス上での小規模言語モデル(SLM)実行を主な用途としていたが、今回からNVIDIAおよびAMDチップを搭載した「ワークステーションクラス」以上のインフラ——エッジやエアギャップ環境を含む——にまで対応範囲を拡大した。これにより、マルチモーダルな大規模LLMをオンプレミスや閉域プライベートクラウド上でオフライン実行できるようになった。
なお、Microsoft独自のAIチップ「Maia 200」についてはFoundry Localでの対応は現時点では予定されていない。Maiaチップはデータセンター内のAzureワークロードに特化して最適化されており、「どこで動いているかを正確に把握できる」精度で制御できるためとのことだ。Foundry LocalはあくまでAMD・NVIDIAエコシステムを中心に展開する方針だ。
規制爆発時代のソブリン要件
MicrosoftのAIインフラ担当GM、アリスター・スピアーズ氏によれば、現在世界では4日に1本のペースでAI・サイバーセキュリティ・データプライバシーに関する新規制が導入されており、69カ国で1,000以上の政策イニシアティブが動いているという。
Satya Nadellaも「あらゆる地域・国でデータ主権の管理をどう確保するかが、今や誰にとっても最前線の課題だ」と明言した。Microsoftはソブリン要件を「パブリッククラウド型主権」「プライベートクラウド型主権」「ソブリンパートナーエコシステム」の3層ポートフォリオとして整理し、顧客がニーズに応じて組み合わせられる設計にしている。
実務への影響——日本のエンジニア・IT管理者が押さえるべきポイント
日本においても、政府・防衛・医療・金融などの分野では「クラウドを使いたいがデータを外に出せない」という制約は根強い。今回のGAはその制約を正面から解決する選択肢となる。
明日から動けるポイントを3つ挙げる:
既存オンプレミス環境の棚卸し: Exchange ServerやSharePoint Serverを「クラウド移行できない負債」として抱えている組織は、2035年サポート延長を前提にAzure Local DisconnectedでAzureガバナンスに統合する設計が現実的な道筋になる。
Foundry LocalをAI PoC環境として評価する: クラウドにデータを送れない機密性の高い業務でも、オンプレミスのGPUラックでLLMを動かせるようになった。まずは社内の検証環境でFoundry Localを試し、どのモデルがどの業務に使えるか感触をつかむのが早道だ。
ソブリン要件をコンプライアンス部門と共に整理する: 「4日に1本」の新規制という環境下では、設計段階からデータ主権・残存場所・アクセス制御の要件を文書化しておかないと後で詰む。Azureのポリシー管理機能を使って制御の証跡を自動で取れる構成にしておくことが、将来の監査対応コストを大幅に下げる。
筆者の見解
Microsoftのソブリンクラウド戦略は、方向性として正しいと思う。AIが実業務に入り込んでいくにつれ、データをクラウドの外に出せない用途は確実に増える。そこに対して「Azureの統合管理はそのまま維持しながら、物理的にはどこにでも置ける」という設計で応えようとしているのは、プラットフォームベンダーとしての強みを生かした正攻法だ。
ただし率直に言うと、AI推論の性能競争という観点ではFoundry Localが対応するモデルの「質」がどこまで上がるかが今後の肝になる。インフラが整うのは大前提として、そこで動くモデルが実際の業務に耐えうる精度を出せるかどうかが問われる。Microsoftには、プラットフォームの整備だけで満足するのではなく、そこで動かせるモデルの選択肢と性能についても手を抜かずに前進してほしい——それができる組織であることは間違いないのだから。
エージェントの管制塔としてのMicrosoft Entra IDと、Foundry Localによるオンプレミス推論の組み合わせは、長期的なアーキテクチャとして筋が良い。日本の大型エンタープライズこそ、この構成を早めに評価しておく価値がある。
出典: この記事は Azure Local Disconnected Generally Available; Foundry Local Supports Large AI Models Offline の内容をもとに、筆者の見解を加えて独自に執筆したものです。