Azure Event Grid MQTTブローカー正式発表——数百万台規模のIoT接続をゼロトラストで実現

Azure Event Grid MQTTブローカーがエンタープライズ向けに正式提供開始 Microsoftは、Azure Event GridにエンタープライズグレードのMQTTブローカー機能を正式統合したと発表した。数百万台規模のデバイスに対応するスケーラビリティと、ゼロトラストセキュリティをデフォルトで実装している点が最大の特徴だ。 MQTTとは——IoTの「共通言語」 MQTT(Message Queuing Telemetry Transport)は、IoTデバイス間の軽量メッセージングプロトコルとして国際標準化されており、センサー、工場設備、スマートビルディングシステムなど、処理能力やネットワーク帯域が限られた環境でも安定した通信を実現する。製造業からスマートシティまで、IoT基盤の「共通言語」として日本国内でも広く採用が進んでいる。 エンタープライズが求める3つの要件を満たす 今回発表されたAzure Event Grid MQTTブローカーは、企業がIoT基盤に求める以下の要件を一つのマネージドサービスで提供する。 1. 大規模スケーラビリティ 数百万台のデバイスから同時に送信されるメッセージを処理できる水平スケーリングを実現。ピーク時のトラフィック増加にも自動対応し、インフラ管理の工数を削減する。 2. ゼロトラストセキュリティの標準実装 デバイス認証、転送中のデータ暗号化(TLS)、きめ細かいアクセス制御ポリシーがデフォルトで有効化されている。「信頼せず、常に検証する」ゼロトラスト原則をインフラレベルで実装することで、接続デバイス数が増加しても一貫したセキュリティ態勢を維持できる。 3. Azure全サービスとのネイティブ統合 Azure IoT Hub、Azure Functions、Azure Stream Analytics、Azure Digital Twinsなど、既存のAzureサービス群とシームレスに連携する。MQTTブローカーを起点に受信したデータをリアルタイムで変換・分析・可視化するパイプラインを、追加のミドルウェアなしに構築できる。 日本の製造業・スマートシティへの影響 日本では製造現場のスマートファクトリー化やインフラのIoT化が加速しており、信頼性の高いMQTTブローカーをクラウドネイティブに利用できる環境へのニーズは高い。これまでは自前でMosquitto等のオープンソースブローカーを運用するか、専用IoTプラットフォームを採用するケースが多かったが、Azure Event Gridへの統合によってフルマネージドかつエンタープライズSLAを持つ選択肢が加わった形だ。 既存のAzureユーザーにとっては、IAM(Identity and Access Management)やモニタリングを統一基盤で管理できるメリットも大きく、運用コストの削減につながる可能性がある。 今後の展望 MicrosoftはEvent Gridを単なるイベントルーターから、リアルタイムイベント処理の統合ハブへと進化させる戦略を明確にしている。MQTTブローカーの追加はその重要なマイルストーンであり、AMQP・Kafkaプロトコルとの相互運用性拡張など、さらなる機能強化が期待される。 IoT基盤の刷新やクラウド移行を検討している組織は、Azure Event Grid MQTTブローカーをアーキテクチャ選定の有力候補として評価する価値があるだろう。 元記事: Azure Event Grid MQTT Broker: Enterprise-Grade Messaging for the Connected World

March 27, 2026 · 1 min · 胡田昌彦

MicrosoftがNVIDIA次世代GPU「Vera Rubin NVL72」搭載の初ハイパースケールクラウドへ——Azure AIインフラ大規模刷新計画の全貌

MicrosoftがNVIDIA Rubin世代のAIデータセンター展開に向けた戦略を公開 Microsoftは、NVIDIA次世代アクセラレーテッドコンピューティングプラットフォーム「Vera Rubin NVL72」を大規模展開する初のハイパースケールクラウドプロバイダーになることを発表した。CES 2026においてNVIDIA Rubinプラットフォームの登場とともに、Azureがすでに受け入れ準備を整えていることが明らかになった。 数年先を見越したデータセンター設計 Azureのデータセンター戦略は、次世代GPUの電力・冷却・メモリ・ネットワーク要件を業界の数年先を見越して設計されている点が大きな特徴だ。ウィスコンシン州およびアトランタの「Fairwater」サイトをはじめとする次世代AI超大型ファクトリー(AIスーパーファクトリー)において、Vera Rubin NVL72ラックをシームレスに統合できる体制が整っている。 NVIDIA Rubin世代のAIインフラは電力・冷却・性能最適化の面で大幅なアップグレードを必要とするが、MicrosoftはFairwaterサイトでの運用実績と複数世代にわたる刷新経験を通じて、技術進化に柔軟に対応できる能力を証明してきた。 GPT-3.5を支えたインフラが次のステージへ MicrosoftはNVIDIA Ampere・Hopperの大規模初期導入においても先行しており、NVIDIA Quantum-2 InfiniBandネットワークで接続されたクラスターがGPT-3.5などの大規模言語モデルの実現を支えた。さらにスーパーコンピューティング性能記録の更新にも貢献しており、次世代システムをより速く、より高い実世界性能で稼働させる能力を示している。 また、NVIDIA GB200 NVL72およびGB300 NVL72プラットフォームについても、業界初かつ最大規模の実装を公開済み。これらは単一のスーパーコンピューターとしてラックに統合され、AIモデルの学習を飛躍的に高速化する。 システム全体最適化がAzureの競争優位 Azureの強みは単なるGPUの追加にとどまらない。コンピュート・ネットワーキング・ストレージ・ソフトウェア・インフラすべてを統合プラットフォームとして設計する「システムズアプローチ」が根幹にある。 具体的には以下の要素が連携して動作する: Azure Boost:IO・ネットワーク・ストレージのボトルネックを解消するオフロードエンジン 高スループットBlobストレージ:大規模クラスターへのデータ供給を安定化 CycleCloud / AKS:大規模クラスタースケールでの低オーバーヘッドスケジューリング 液冷式熱交換ユニット(HEU):精密な温度管理を実現 Azure HSMシリコン:セキュリティ処理をオフロード Azure Cobalt:汎用コンピュートおよびAI周辺タスクの高効率処理 推論ワークロードで50ペタFLOPSへ NVIDIA Vera RubinスーパーチップはNVFP4精度で50ペタFLOPSの推論性能を提供する見込みで、推論ヘビーなワークロードに最適化されたインフラとしてAzureが提供する。 日本企業においても大規模言語モデルの推論コスト削減は急務であり、Azure上でのRubinプラットフォーム活用は、AIサービスの経済性を大きく変える可能性がある。MicrosoftとNVIDIAの長期的な協業関係が、クラウドAIインフラの次世代標準を築きつつある。 元記事: Microsoft’s strategic AI datacenter planning enables seamless, large-scale NVIDIA Rubin deployments

March 27, 2026 · 1 min · 胡田昌彦

【Azure重要変更】2026年3月末で新規VNETのデフォルトアウトバウンドアクセスが廃止——NAT GatewayやLoad Balancerへの移行が必須に

Azure仮想ネットワークのアウトバウンドアクセスに重大な変更 Microsoftは、Azure仮想ネットワーク(VNET)上の仮想マシン(VM)がインターネットへ接続する際の基本動作を根本的に変更する。2026年3月31日以降、新規に作成される仮想ネットワーク・サブネットはデフォルトで「プライベート」設定となり、明示的にアウトバウンド接続を構成しない限り、VMはインターネットへアクセスできなくなる。 これまでの動作と何が変わるのか これまでAzureでは、明示的な出口経路(egress path)を設定していないVMに対して、「デフォルトアウトバウンドアクセス」と呼ばれる暗黙的なインターネット接続が提供されていた。この機能により、追加設定なしでOSアップデートの取得、ライセンス認証、外部APIとの連携などが可能だった。 Microsoftは今回、この暗黙的な接続を廃止し、明示的かつ監査可能なネットワーク設計を義務付ける方針へと転換する。ゼロトラスト(Zero Trust)ネットワーク原則に基づき、「セキュア・バイ・デフォルト」の実現を目指すためだ。 既存の仮想ネットワークへの影響は? この変更は既存の仮想ネットワークには適用されない。 2026年3月31日以前に作成済みのVNETおよびそのサブネット内にデプロイされたVMは、引き続き従来通りの動作を維持する。ただしMicrosoftは、将来的な安定性のためにも明示的なアウトバウンド方法へ移行することを強く推奨している。 主な理由は以下の通りだ。 デフォルトアウトバウンドが使用するパブリックIPアドレスは予告なく変更される可能性がある 自前でトレーサブルなIPリソースを管理することで、セキュリティ・コンプライアンス要件を満たしやすくなる VMから公開エンドポイントへの接続経路を組織側でコントロールできる 推奨される移行先アーキテクチャ Microsoftはワークロードの要件に応じて、以下4つのアウトバウンド方法を推奨している。 方法 特徴 Azure NAT Gateway スケーラブルで予測可能な送信アクセス。大規模環境に最適 Load Balancerのアウトバウンドルール 既存のロードバランサー構成を活用できる パブリックIPアドレス 個別ワークロード向けのシンプルな構成 Azure FirewallまたはNVA(ネットワーク仮想アプライアンス) ポリシーの一元管理が必要なエンタープライズ環境に適する 放置するとどうなるか プライベートサブネットにデプロイされたVMに明示的なアウトバウンド設定がない場合、以下のような障害が発生しうる。 OSアップデートやパッケージリポジトリへのアクセス失敗 Windows認証(Azure AD / Entra ID)の接続エラー Microsoft Intuneとの同期失敗 監視エージェントやテレメトリの送信停止 外部API・サードパーティサービスとの連携断絶 開発・テスト環境やレガシー構成で、暗黙のインターネットアクセスに依存しているケースは特に注意が必要だ。 今すぐ確認すべきこと 自社のAzure環境がデフォルトアウトバウンドアクセスに依存しているかどうかを今すぐ確認することを強く推奨する。Azure Portalのネットワーク設定やNSG(ネットワークセキュリティグループ)フローログを活用して、明示的な出口設定のないVMをリストアップし、計画的に移行を進めることが障害回避の近道となる。 期限は2026年3月31日。残り時間は少ない。 元記事: Azure VNET Outbound Access – Important Changes March 2026

March 27, 2026 · 1 min · 胡田昌彦

Microsoft、Azure Sphereを2031年7月31日に終了へ——移行先と影響範囲を解説

Microsoft、Azure Sphereの終了を正式発表 Microsoftは、IoTデバイス向けセキュリティプラットフォーム「Azure Sphere」を2031年7月31日をもって終了すると正式に発表した。同日をもってすべてのサービスが停止される。 終了するサービスの範囲 今回の終了(リタイアメント)によって停止するのは以下のとおり: OSおよびセキュリティアップデートの配信停止 DAA(Device Authentication and Attestation)シリコン証明書の新規発行停止 MT3620 MCUの延長サポート終了 クラウドサービス全般(デバイス管理ポータル、テレメトリ収集など) 2031年7月31日以降、既存デバイスはセキュリティパッチを受け取れなくなるため、IoTデバイスの性質上、長期稼働を前提とした製品では特に早期の対応計画が求められる。 Azure Sphereとは Azure Sphereは2018年にMicrosoftが発表したIoTセキュリティプラットフォームで、独自設計のMCU(MT3620)、Linuxベースの専用OS、クラウドベースのセキュリティサービスの3層構造で構成される。組み込み機器にエンタープライズレベルのセキュリティをもたらすというコンセプトで、製造業や産業用途を中心に採用が進んでいた。 日本でも製造業のDX推進の文脈でAzure Sphereを採用した事例があり、影響を受けるユーザーは少なくないとみられる。 移行に向けた対応 Microsoftは移行先の案内とQ&Aを公式ブログで公開している。終了まで約5年の猶予があるものの、IoT機器は製品サイクルが長く、設計・認証・量産のリードタイムも考慮すると、今から移行計画を立てることが強く推奨される。 代替候補としては、Microsoft Azure IoT HubやAzure IoT Centralといった既存のAzure IoTサービス群への移行、あるいはArmのPSA Certified対応チップやNXP・STMicroelectronicsなどのセキュアエレメント搭載MCUへの切り替えが考えられる。 まとめ 2031年という期限は一見遠く感じるが、組み込み製品の開発・保守サイクルを考えると実質的な猶予は長くない。Azure Sphereを採用している開発者・製品担当者は、公式Q&Aを確認しつつ、早期に移行ロードマップの策定に着手することを検討すべきだろう。 元記事: Azure Sphere is Retiring in 2031 - What you need to know

March 27, 2026 · 1 min · 胡田昌彦

Azure Container AppsのDynamic SessionsにMCPエンドポイント追加——AIエージェントがミリ秒起動サンドボックスでコードを安全実行

Azure Container Apps Dynamic Sessions とは Microsoftは、Azure Container AppsのDynamic Sessions機能にビルトインのMCP(Model Context Protocol)エンドポイントを追加した。これにより、AIエージェントがPython・Node.js・シェルスクリプトなどのコードを、Hyper-V隔離されたサンドボックス環境でミリ秒単位に起動して安全に実行できるようになる。 LLM(大規模言語モデル)がコードを生成し、そのコードを即座に実行して結果を返すパイプラインの構築が、これまで以上に容易になった。 主な特徴 Hyper-V による強固な分離 各セッションはHyper-Vによる仮想化で互いに完全に隔離されており、ホスト環境にも影響を与えない。信頼できないユーザー提出コードや、AIが生成したスクリプトを本番システムのリスクなしに実行できるエンタープライズグレードのセキュリティを備える。 プリウォームによるミリ秒起動 セッションプールと呼ばれる仕組みで、あらかじめウォームアップされた未割り当てセッションを大量に待機させておく。リクエストが来た時点でプールから割り当てるため、コンテナをゼロから起動するコストが不要となり、サブ秒(ミリ秒オーダー)での起動が実現する。 自動スケールと自動クリーンアップ 同時に数百〜数千セッションを手動介入なしにスケール可能。セッションはタスク完了後またはアイドルタイムアウト後に自動で破棄され、リソースが解放される。 想定ユースケース AI/LLMワークフロー: ChatGPTやClaude等が生成したコードを本番環境に触れさせることなく検証・実行 インタラクティブ開発: スクリプトやプロトタイプを使い捨て環境で素早くテスト セキュアなコード実行: ユーザー提出の任意コードを隔離環境で安全に処理 バーストワークロード: 予測困難なアクセス急増に対してセッションを自動スケールで対応 セッションプールの種類 Dynamic Sessionsには2種類のプールが用意されている。 コードインタープリタープール: Python・Node.js・シェルなどの実行環境がプリインストールされたマネージドコンテナ。LLM駆動のワークフローや安全なコード実行に最適。 カスタムコンテナープール: 独自の依存関係や実行環境が必要なケース向けに、任意のコンテナイメージを使用できる。 MCPエンドポイントとの統合で広がるAIエージェント活用 今回追加されたMCPエンドポイントにより、Claude・GPT-4・Geminiなどのモデルを組み込んだAIエージェントフレームワークから、Dynamic Sessionsのサンドボックスを標準プロトコルで呼び出せるようになった。「コード生成 → 安全な実行 → 結果のフィードバック」というループをエージェント内で完結できる点が大きな強みだ。 Azureを活用した開発者やエンタープライズシステム担当者にとって、LLMベースのコーティングエージェントや社内自動化ツールへの応用が期待される機能追加といえる。 元記事: Dynamic sessions in Azure Container Apps | Microsoft Learn

March 27, 2026 · 1 min · 胡田昌彦

Azure Container AppsにMCPエンドポイント内蔵——AIエージェントのコード実行がさらに手軽・安全に

AIエージェントのコード実行に新たな選択肢 Microsoftは「Azure Container Apps Dynamic Sessions」に、ビルトインのMCP(Model Context Protocol)エンドポイントを追加したと発表した。これにより、AIエージェントがPython・Node.js・シェルスクリプトなどのコードを、Hyper-V隔離サンドボックス内でミリ秒単位に起動して安全に実行できるようになる。 これまでの課題と今回の改善 LLM(大規模言語モデル)駆動のワークフローでは、AIが生成したコードをそのまま実行する「コードインタープリター」的なユースケースが増えている。しかし、任意コードの実行はセキュリティリスクと隣り合わせであり、適切な隔離環境の構築には相応の手間がかかっていた。 Dynamic Sessionsは以前からHyper-Vベースの強固なサンドボックスを提供していたが、今回のアップデートでMCPエンドポイントがビルトインで利用可能となり、エージェントとの統合に必要な設定量が大幅に削減された。開発者はインフラ構築の複雑さを意識せず、コードインタープリター機能を自分のエージェントに組み込める。 MCP統合のポイント MCPは、LLMとツール・外部サービスをつなぐためのオープンプロトコルとして急速に普及しつつある。今回のDynamic SessionsへのMCPエンドポイント追加は、このエコシステムへの公式対応であり、AnthropicのClaudeやその他のMCP対応エージェントからも直接呼び出せるようになる。 主な特徴は以下のとおりだ。 Hyper-V隔離: 各セッションはVM単位で隔離されており、他のセッションや基盤インフラへの影響を防ぐ 高速起動: ミリ秒単位のコールドスタートにより、インタラクティブなユースケースにも対応 マルチランタイム対応: Python・Node.js・シェルをサポート Microsoft Agent Frameworkとの統合: 公式サンプルが公開されており、すぐに試せる 日本の開発者への示唆 国内でも生成AIを活用したデータ分析ツールや社内エージェントの開発が活発化しており、「AIにコードを書かせて即実行」という要件はますます一般的になっている。Azure上でこのユースケースを実装する際、Dynamic Sessions + MCPの組み合わせは有力な選択肢となるだろう。 Microsoft Agent Frameworkとの統合サンプルはTech Communityブログ上で公開されており、既存のAzureサブスクリプションがあればすぐに検証を始められる。 元記事: Even simpler to Safely Execute AI-generated Code with Azure Container Apps Dynamic Sessions

March 27, 2026 · 1 min · 胡田昌彦

Azure SQLのAIエージェント連携が加速——SQL MCP Serverがパブリックプレビュー開始

Azure SQLとAIエージェントをつなぐ「SQL MCP Server」が登場 Microsoftは、Azure SQLデータベースをAIエージェントやCopilotと安全に接続するためのSQL MCP Serverをパブリックプレビューとして公開した。Data API builder(DAB)バージョン1.7以降に標準搭載されており、追加のライセンスなしで無償利用できる。 MCPとは何か Model Context Protocol(MCP)は、AIエージェントが外部ツールを発見・呼び出すための標準プロトコルだ。各ツールは入出力と動作を宣言し、エージェントはその仕様に従って予測可能な方法で機能を利用できる。Anthropic主導で策定されたこのプロトコルは、近年AzureをはじめとするクラウドベンダーやAIプラットフォームへの採用が急速に広がっている。 SQL MCP Serverの特徴 SQL MCP Serverの最大の特徴は、データベースを直接AIに「見せる」のではなく、エンティティ抽象化レイヤーを通じて安全にアクセスを提供する点だ。管理者はJSONファイルで以下を定義するだけでよい: データベースへの接続情報 公開するテーブル・ビュー・ストアドプロシージャ ロールごとのアクセス権限 この設定が完了すれば、REST・GraphQL・MCPのいずれのプロトコルでも同一のエンジンが動作する。「一度設定すれば、あとはエンジンが処理する」というアプローチはエンタープライズ運用において大きなメリットになる。 セキュリティとエンタープライズ対応 Data API builderはロールベースのアクセス制御(RBAC)を内蔵しており、現在のロールが許可されたエンティティと操作のみを公開する。フィールドの別名付け、パラメーターの説明追加、公開フィールドの制限といった細かい制御も可能だ。さらにキャッシュとテレメトリも標準搭載しており、本番環境での安定運用を見据えた設計となっている。 対応トランスポートと開発ツール SQL MCP ServerはストリーマブルHTTP(標準ホスティング向け)とstdio(ローカル・CLI向け)の2つのトランスポートをサポートする。ローカル開発時はdab start --mcp-stdioコマンドで手軽に起動でき、MCP Inspectorを使えばブラウザからエンドポイントの動作確認も可能だ。 主なユースケース CopilotやチャットボットからのCRUD操作を安全に許可 SQLを書かずに社内自動化ワークフローを構築 データベースを直接公開せずにエージェント機能を追加 日本企業への影響 Microsoft 365 CopilotやAzure AI Foundryを導入している日本企業にとって、このMCPサーバーは業務データとAIエージェントをつなぐ重要なブリッジになる可能性が高い。特に既存のAzure SQL資産を活かしながらAIエージェントを導入したい企業にとって、設定コストを最小化できる点は魅力的だ。パブリックプレビューのため本番利用には注意が必要だが、早期評価を検討する価値は十分にある。 元記事: SQL MCP Server overview - Public Preview for Azure SQL

March 27, 2026 · 1 min · 胡田昌彦

Azure Databricks Lakebase が正式リリース——ETLパイプライン不要のサーバーレスPostgresがレイクハウスと融合

Azure Databricks Lakebase、正式リリース(GA)——14リージョンで提供開始 Databricksは2026年3月、Azure Databricks Lakebase の一般提供(GA)を発表した。Microsoftとの共同発表となった今回のリリースは、アプリケーション開発とデータ分析の間に長年存在してきた「データの壁」を取り払う試みとして注目を集めている。 従来の問題:ETLという「データ税」 これまで、PostgreSQLなどのオペレーショナルデータベースとデータレイク・分析基盤の間にはギャップが存在していた。開発チームはそのギャップを埋めるために複雑なETL(Extract/Transform/Load)パイプラインを構築・維持し続ける必要があった。このアーキテクチャは単に開発スピードを落とすだけでなく、ストレージの重複コストや、リアルタイムデータと分析データの間にタイムラグを生む「データ税」として機能してきた。 Lakebase の核心:コンピュートとストレージの分離 Lakebase はこの課題をアーキテクチャレベルで解決する。コンピュート(処理)とストレージ(データ保管)を分離した設計により、オペレーショナルデータをレイクハウスのストレージに直接書き込める。つまり、トランザクション系と分析系で別々にデータを持つ必要がなくなり、ETLパイプラインそのものが不要になる。 主な機能 サーバーレス&オートスケーリング トラフィックに応じて自動スケールし、アイドル時はゼロにスケールダウン。使った分だけ課金されるモデルで、TCO(総所有コスト)の最小化を実現する。 インスタントブランチング&ゼロコピークローン 本番データのブランチを数秒で作成できる。スキーママイグレーションのテストやクエリのデバッグを、本番環境への影響ゼロで実施可能。AIエージェントを活用した高速な開発サイクルとの相性も良い。 ポイントインタイムリカバリ(PITR) 障害やミスが発生した際、任意の時点にデータベースを即座に復元できる。 標準Postgres互換 既存のPostgresツールやライブラリとの完全互換を維持。AIベクトル検索向けの pgvector や地理空間分析向けの PostGIS など、主要な拡張機能にも対応する。 日本市場への影響 Azureを活用している日本企業にとっても注目すべきサービスだ。特に、データ分析基盤(Databricks)とアプリケーション用DBを別々に運用しているケースでは、アーキテクチャの統合によってコスト削減と開発効率化の両立が期待できる。物流データ企業のHafniaは「アプリ・分析・AIを1つのガバナンス基盤に統合し、データ重複をなくしてリアルタイム機能を迅速に出荷できるようになった」とコメントしている。 Lakebaseは現在14のAzureリージョンで利用可能となっており、既存のAzure投資を活かしながら統一データアーキテクチャへの移行を検討している組織にとって有力な選択肢となりそうだ。 元記事: Azure Databricks Lakebase is Generally Available

March 27, 2026 · 1 min · 胡田昌彦

Azure SDK 2026年3月リリース:Cosmos DB Rustクライアントの大幅刷新とAI Content Understanding GA

Microsoftは2026年3月のAzure SDKリリースを公開した。毎月定期的にリリースされるAzure SDKだが、今月は特にRust向けCosmos DBクライアントの大幅な機能追加・API変更と、Azure AI Content UnderstandingのGA(一般提供開始)が注目ポイントとなっている。 Azure Identity 1.19.0 for .NET — 証明書ストアへの直接参照に対応 .NET向けAzure IdentityライブラリがClientCertificateCredentialにおいて、証明書ファイルパスの代わりにcert:/StoreLocation/StoreName/Thumbprint形式でのプラットフォーム証明書ストア参照をサポートした。 たとえばWindowsの証明書ストアやmacOSのキーチェーンに保存された証明書を、ディスク上のファイルなしに直接参照できる。cert:/CurrentUser/My/E661583E8FABEF4C0BEF694CBC41C28FB81CD870のような形式で指定するだけでよい。エンタープライズ環境での証明書管理が大幅に簡素化される変更だ。 Cosmos DB 0.31.0 for Rust — 破壊的変更を伴う大型アップデート Rust向けAzure Cosmos DBクライアントライブラリが大きく進化した。主な新機能は以下のとおり。 マルチリージョン書き込みの基本サポート:グローバル分散アプリケーション構築に向けた重要な一歩 トランザクションバッチサポート:同一パーティションキー内で複数操作をアトミックに実行可能 フォルトインジェクションサポート:障害シナリオのテストが可能に APIも刷新され、CosmosClientBuilderによる新しいクライアント構築APIが導入。クエリメソッドはStream<Item = Result<T>>を実装するFeedItemIterator<T>を返すようになった。なおwasm32-unknown-unknownターゲットのサポートはRust SDK全体で削除されている点に注意が必要だ。 Azure AI Content Understanding 1.0.0 — .NET/JavaScript/Python でGA Azure AIのドキュメント・音声・動画コンテンツ解析ライブラリ「Content Understanding」が.NET、JavaScript、Pythonの3言語で正式版(GA)に到達した。ContentUnderstandingClientを通じてアナライザーの作成・管理・設定が行える。 .NET版ではContentFieldサブクラスへの強い型付きValueプロパティ、グラウンディングソース文字列の型安全なパース用ContentSource階層、コンテンツ範囲指定用のContentRange値型と静的ファクトリメソッドが追加されている。 その他の安定版初回リリース 今月の安定版初回リリース(Initial stable releases)には以下が含まれる。 Voice Live 1.0.0(.NET) Provisioning – Network 1.0.0(.NET) Resource Management – Disconnected Operations 1.0.0(.NET/Go/JavaScript) Resource Management – Service Fabric Managed Clusters 1.0.0(Go/JavaScript) Resource Management – Artifact Signing 1.0.0(JavaScript/Python) ベータ版では.NET向けCDNプロビジョニング、Go向けArtifact Signing・ドメイン・証明書登録管理など多数の初回ベータリリースも含まれている。 ...

March 26, 2026 · 1 min · 胡田昌彦

AzureネットワーキングがAI時代に対応——セキュリティ・高可用性・スケーラビリティの大規模アップデート

AzureネットワーキングがAI時代に本格対応 Microsoftは、Azureネットワークサービスに関する大規模なアップデートを発表した。AIワークロードの急増に対応するためのインフラ強化を中心に、セキュリティ・高可用性・スケーラビリティの各領域で複数の新機能が追加・強化されている。 AIを中核に据えたネットワーク基盤 Azureのグローバルネットワークは、60以上のAIリージョン、80万キロメートル超の光ファイバー網、4ペタビット/秒(Pbps)超のWAN帯域幅を誇る。さらに、総容量はFY24末から3倍に拡張され、現在は18 Pbpsに達しているという。 AIトレーニング向けには、InfiniBandと高速Ethernetを組み合わせた超低レイテンシ・無損失のデータ転送アーキテクチャを採用。分散GPUプール間の通信には専用のAI WAN(Wide Area Network)を用意し、Azure Private LinkとDPU(Data Processing Unit)ベースのVNetアプライアンスで安全性と高性能を両立させている。 日本でも大規模なAIシステムをAzure上で構築する企業が増加しており、このような基盤強化はGPUクラスタを用いた分散学習や大規模推論サービスの安定運用に直結する。 ゾーン冗長NAT Gateway V2がプレビュー公開 高可用性の面では、Standard NAT Gateway V2のパブリックプレビューが発表された。ゾーン冗長アーキテクチャを追加費用なしで利用できるのが特徴で、単一ゾーン障害時にはトラフィックが自動的に他のゾーンへ分散される。 主なスペックは以下の通り: 総スループット: 100 Gbps パケット処理性能: 1,000万パケット/秒 IPv6ネイティブ対応 フローログによるトラフィック可視化 これまでExpressRoute GatewayやVPN Gateway、Application GatewayでゾーンレジリエントSKUが提供されてきたが、NAT Gatewayもその列に加わる形となる。 DNSセキュリティポリシーがGA(一般提供開始) セキュリティ強化として、DNS Security Policy with Threat Intelligenceが一般提供(GA)に移行した。継続的に更新される脅威インテリジェンスフィードと連携し、悪意のあるドメインへの通信を自動的に監視・ブロックする機能だ。 Microsoftが掲げる「Secure Future Initiative(セキュアな未来への取り組み)」の一環として位置づけられており、ゼロトラストネットワーク設計を推進する企業にとって実用性の高い機能といえる。 クラウドネイティブ時代のネットワーク戦略 今回のアップデート群は、オンプレミスからのクラウド移行、Kubernetes環境向けの高度なコンテナネットワーキング、ExpressRouteによるプライベート接続など、企業のクラウド活用ステージを問わず適用できる内容が揃っている。 Azureネットワークは単なる「接続インフラ」を超え、AIワークロードを支えるインテリジェントな基盤として進化し続けている。国内でAzureを活用するエンジニアは、これらの新機能を積極的に評価・検討する価値があるだろう。 元記事: Azure Networking Updates: Secure, Scalable, and AI-Optimized

March 26, 2026 · 1 min · 胡田昌彦

Microsoft、AIエージェント時代最大のセキュリティ刷新——「Agent 365」「Shadow AI検出」など15種以上のCopilotエージェントをRSAC 2026で一挙発表

Microsoftが「エージェント・セキュリティ」を本格始動 Microsoftは2026年3月23〜27日に開催されたセキュリティカンファレンス「RSAC 2026」において、AIエージェント時代に対応した大規模セキュリティアップデートを発表した。エージェントのガバナンス、ID強化、データ保護、脅威防御、自律型SOC(セキュリティオペレーションセンター)機能を網羅する内容で、単一ベンダーによるものとしては過去最大規模のアジェンティック・セキュリティリリースとなる。 Microsoft自身の調査によれば、Fortune 500企業の80%がすでにAIエージェントを業務に導入しているという。今回の発表はそれを追いかけるセキュリティ基盤を一気に整備するものだ。 Agent 365——AIエージェントの「コントロールプレーン」 目玉となる「Agent 365」は、組織内で動くAIエージェント全体を統括するコントロールプレーンで、5月1日に一般提供(GA)開始。新SKUである「Microsoft 365 E7: The Frontier Suite」(月額99ドル/ユーザー)に、Copilot・Entra Suite・E5セキュリティとともにバンドルされる。 主な機能は4点だ。組織内の全エージェントを可視化(Observe)し、IDとネットワーク制御でセキュアに保護(Secure)、ポリシー適用で行動を管理(Govern)、そしてPurview連携によるデータの過剰共有防止。E7ライセンスに自動付帯するため、管理者はアドオン購入なしでエージェント管理機能を利用できる。 Shadow AI検出——「野良AI」をネットワーク層で捕捉 現場が独断で使い始めたSaaS型AIツール、いわゆる「Shadow AI」の問題は、日本企業でも深刻化しつつある。Microsoftはこれをアプリ層ではなくネットワーク層で検出する「Entra Internet Access Shadow AI Detection」を3月31日にGA予定とした。 エンドポイント管理では見えないブラウザやデバイス上の未承認AIアプリも捕捉できる点が新しい。さらに5月GA予定の「Enhanced Intune App Inventory」と組み合わせることで、ネットワーク+エンドポイントの2層で未管理AIを発見する仕組みが整う。 プロンプトインジェクションをネットワーク段階でブロック 「Entra Internet Access プロンプトインジェクション保護」(3月31日GA)は、悪意あるAIプロンプトをアプリケーション層より手前のネットワーク層で遮断する。各AIアプリが個別にガードレールを実装する従来手法では、標的型攻撃に対して57〜72%の確率で失敗するとされており、ネットワーク側での一括遮断は防御の信頼性を大きく高める。 Security Copilotが自律エージェントに進化 M365 E5・E7に組み込まれた「Security Copilot」も、チャット型アシスタントからエージェント型防衛プラットフォームへと発展。主な新エージェントは以下の通りだ。 Security Analyst Agent(Defender)——脅威調査を文脈分析+ガイド付きワークフローで加速(3月26日プレビュー) Security Alert Triage Agent(Defender)——クラウド・IDにまたがる低価値アラートを自律分析・分類・解決(4月) Data Security Posture Agent(Purview)——データ内の認証情報漏洩をスキャン Conditional Access Optimization Agent(Entra)——コンテキスト考慮の段階的CA推奨 Defender・Entra・Purview・Sentinelといった主要セキュリティサーフェスのすべてに、定義されたガードレール内で自律的に行動できる専用エージェントが配備される形となった。セキュリティストアには15種以上のパートナー製エージェントも追加される。 日本企業への示唆 Agent 365やShadow AI検出は、Microsoft 365をすでに導入している日本企業にも直結する話題だ。E7 SKUへのアップグレードを検討していない場合でも、3月末GA予定のネットワーク層機能はEntra Internet Accessライセンスで利用可能になる見込み。AIガバナンスやシャドーIT対策を課題とするIT・セキュリティ担当者は、今後の国内展開情報を注視したい。 元記事: Microsoft Drops Its Biggest Agent Security Update Ever: Agent 365, Shadow AI Detection, and 15+ Security Copilot Agents ...

March 26, 2026 · 1 min · 胡田昌彦

Microsoft Sentinel、RSAC 2026でAI自動化を大幅強化——MCPコネクタやGDAPなど新機能を一挙発表

Microsoft Sentinel、RSAC 2026で次世代セキュリティ機能を披露 世界最大級のサイバーセキュリティカンファレンス「RSAC 2026」において、Microsoftはクラウドネイティブなセキュリティ情報イベント管理(SIEM)サービス「Microsoft Sentinel」の大規模アップデートを発表した。AI活用によるセキュリティ運用の自動化・効率化が今回の発表の核心となっている。 AI駆動プレイブックで対応を自動化 最大の注目点は、AIを活用したプレイブック機能の強化だ。セキュリティインシデント発生時の対応手順(プレイブック)をAIが自律的に実行・最適化できるようになり、これまで人手に頼っていたトリアージや初動対応の大部分を自動化できる。SOC(セキュリティオペレーションセンター)担当者の負荷軽減と対応速度の向上が期待される。 Sentinel MCP Graph Toolコレクション、パブリックプレビューに MCP(Model Context Protocol)を活用した「Sentinel MCP Graph Toolコレクション」がパブリックプレビューとして公開された。MCPはAnthropicが策定したオープン標準であり、AIモデルが外部ツールやデータソースと標準化された方法で連携するためのプロトコルだ。 とりわけ注目されるのが、Anthropicの「Claude」との連携を実現するMCPコネクタの公開だ。これにより、SentinelのセキュリティデータをClaudeなどのLLM(大規模言語モデル)から直接クエリ・分析できる環境が整い、AIエージェントを活用したセキュリティ調査が現実のものとなる。 GDAPによる細粒度な権限委譲 GDAP(Granular Delegated Admin Privileges:粒度の細かい委任管理権限)への対応も強化された。GDAPはMicrosoftが推進する最小権限の原則に基づく管理モデルで、マネージドサービスプロバイダー(MSP)やMSSP(マネージドセキュリティサービスプロバイダー)が顧客環境を管理する際に、必要最小限の権限のみを委譲できる。日本国内でもMSSPビジネスを展開する事業者にとって、コンプライアンス対応や顧客からの信頼確保に直結する機能だ。 新コネクタによる高速データオンボーディング Sentinelへのデータ取り込みを加速する新コネクタ群も公開された。多様なセキュリティ製品・サービスからのログやアラートをより迅速にSentinelへ集約できるようになり、マルチベンダー環境における統合セキュリティ監視の実現が容易になる。 日本企業への影響 日本企業においてもMicrosoft Azureの採用が進む中、SentinelはEntra IDやDefender製品群との統合による一元的なセキュリティ管理基盤として注目度が高い。今回発表されたAI自動化機能は、慢性的に不足するセキュリティ人材の課題を補う手段としても期待が集まる。特にMCPを通じたAIエージェント連携は、次世代SOCの姿を具体的に示す動きとして業界全体への影響が大きい。 これらの機能は順次一般提供(GA)へ移行予定であり、既存のSentinelユーザーは追加費用なしで利用できるものも多い。詳細はMicrosoft Tech Communityの公式ブログで確認できる。 元記事: What’s new in Microsoft Sentinel: RSAC 2026

March 26, 2026 · 1 min · 胡田昌彦

GPT-5.4がMicrosoft Foundryで提供開始——エージェントワークフローとコンピューター操作を標準搭載

GPT-5.4がMicrosoft Foundryに登場 Microsoft Foundryに、OpenAIの最新フロンティアモデルGPT-5.4が追加された。GPT-5.2、GPT-5.3のリリースから数カ月というハイペースでの更新であり、推論能力・エージェントワークフロー・業務自動化の面で大きな進化を遂げている。 GPT-5.4の主な新機能 GPT-5.4では、エンタープライズ向けのユースケースを強く意識した機能強化が図られている。 ビルトインのエージェントワークフロー:計画から実行まで一貫したタスク処理が可能 ネイティブなコンピューター操作:キーボード・マウス操作やスクリーンショット取得を標準サポート。RPA的な自動化をモデル単体で実現できる Tool Search:大規模なツールエコシステムの中から適切なツールを自律的に探索・選択 最大105万トークンのコンテキストウィンドウ:長文書や大規模コードベースの処理に対応 トークン効率の向上:応答速度の向上とコスト削減を両立 ファクチュアル精度の改善:ハルシネーション(誤情報生成)のさらなる低減 これらにより、文書・スプレッドシート生成、コーディング、データ分析、長文推論といった業務での活用が期待される。 深い分析向けの「GPT-5.4 Pro」も同時公開 速度よりも分析の深さを優先するシナリオ向けに、プレミアム版のGPT-5.4 Proも提供が開始された。科学研究や戦略的意思決定、複雑な問題解決を主な対象としており、以下の特徴を持つ。 マルチパス推論評価:複数の解法候補を探索し、最適解を導出 長い推論チェーンにおける安定性の向上 トレードオフを伴う問題への対応強化 現時点でのコンテキストウィンドウは40万トークン(近日中に105万トークンへ拡張予定)、出力トークンは最大12万8,000トークン。 価格と提供形態 GPT-5.4の価格は入力トークン数に応じた従量制となっており、272,000トークン未満の場合は入力100万トークンあたり$2.50、キャッシュ済み入力は$0.25となっている。Microsoft Foundryを通じて利用でき、Azure上での企業向けガバナンスや統合環境の恩恵を受けながら活用できる点は、日本企業にとっても魅力的なポイントだろう。 まとめ GPT-5.4は、単なる言語モデルの枠を超え、PCを操作するAIエージェントとしての実用性を大きく高めた。Microsoft Foundry経由でAzureのエコシステムと統合できるため、業務システムへの組み込みを検討している開発者・企業にとって注目のリリースとなる。 元記事: GPT-5.4 Now Available in Microsoft Foundry

March 26, 2026 · 1 min · 胡田昌彦

KubeCon 2026:MicrosoftがKubernetesをAIインフラOSへ昇格——DRA GA・AI Runway・Cilium強化を一挙発表

KubernetesがAIインフラの「OS」へ——MicrosoftがKubeCon 2026で大規模アップデートを発表 Microsoftはアムステルダムで開催されたKubeCon Europe 2026において、Kubernetesをクラウドネイティブアプリの制御基盤から「AIインフラのオペレーティングシステム」へと進化させる一連の取り組みを発表した。生成AIが実験段階を脱し、エンタープライズ本番環境で本格稼働するフェーズに入ったいま、GPUスケジューリング・ネットワーキング・セキュリティ・可観測性を統合した基盤の整備が急務となっており、今回の発表はその回答とも言える内容だ。 Dynamic Resource Allocation(DRA)がGA——GPU割り当てがKubernetesネイティブに 最大のハイライトは、Dynamic Resource Allocation(DRA) のKubernetes正式版(GA)への昇格だ。これまでGPUなど特殊ハードウェアの割り当ては、ベンダー独自のデバイスプラグインに依存する静的な仕組みで管理されており、マルチクラウド環境でのスケールに限界があった。DRAはこれを宣言的かつKubernetesネイティブな方法に置き換えるもので、GPUの種類・NICとの近接性・メモリ容量・ネットワーク経路といったトポロジー要件を一元的に記述できる。分散推論・分散トレーニングを前提とした大規模AIクラスターの運用において、この変更は実用上の大きな前進だ。 OSS推論API「AI Runway」を公開 MicrosoftはAIモデルのサービング標準化を目的としたAI Runwayをオープンソースの推論APIとして発表した。モデルデプロイメントの複雑さを抽象化し、Kubernetes上での推論ワークロード管理を簡素化することを目指す。KubeRayとのDRA統合も同時に発表されており、GPUリソースをより細かくコントロールしながら分散推論を動かせる環境が整いつつある。 AKS:Blue-greenアップグレードとKarpenterによるクロスクラウドGPUスケジューリング Azure Kubernetes Service(AKS)側では、Blue-greenエージェントプールアップグレードとノードプールロールバック機能が追加された。これにより本番環境を止めずにノードOSやKubernetes自体のアップグレードが行えるようになり、SREチームの運用負担が軽減される。 さらにKarpenterを活用したGPU容量のクロスクラウドスケジューリングが可能になる。AI推論需要は時間帯やモデルサイズによって大きく変動するため、静的なキャパシティプランニングではなく弾力的なスケジューリングが求められており、この機能はその直接的な解答となる。 サイドカーレスmTLSとCiliumによるeBPF駆動のセキュリティ ネットワーク面では、サイドカーレスmTLSとメッシュレスIstioサポートの強化が発表された。従来のサービスメッシュはPodごとにプロキシサイドカーを注入する設計が多く、GPUメモリやコアが貴重なAI環境ではオーバーヘッドが問題となっていた。CiliumのeBPFベースのアプローチはセキュリティとテレメトリーをデータプレーンに近い層で処理することでこの課題を解消する。 HolmesGPTとDalecでCNCFエコシステムへの貢献も MicrosoftはAIエージェントによるKubernetes自律運用ツールHolmesGPTや、コンテナサプライチェーンセキュリティのためのビルドシステムDalecをCNCFへコントリビュートすることも明らかにした。AKSを単に「優れたマネージドKubernetes」として訴求するだけでなく、CNCF upstream自体を通じてエコシステム全体の方向性を形成しようとする戦略は、クラウドロックイン回避を求めるエンタープライズユーザーにとっても歓迎される動きだ。 国内エンタープライズへの示唆 日本においても、生成AIをPoC(概念実証)から本番運用へ移行する段階に差し掛かっている企業は多い。KubernetesをAIワークロードの基盤として採用する動きが加速するなか、今回のMicrosoftの発表はAKS採用者はもちろん、オンプレやマルチクラウドでKubernetesを運用するプラットフォームエンジニアにとっても参照すべき重要なロードマップとなるだろう。 元記事: Microsoft KubeCon 2026: Kubernetes Becomes AI Infrastructure OS with DRA, AI Runway & Cilium

March 26, 2026 · 1 min · 胡田昌彦

MicrosoftがKubeCon Europe 2026でKubernetesをAIインフラの「OS」として位置づけ——AIエージェントによる自律運用も披露

KubernetesがAIインフラの「オペレーティングシステム」へ ロンドンで開催された KubeCon + CloudNativeCon Europe 2026 において、Microsoftはオープンソースコミュニティへの積極的な関与と、KubernetesをAIインフラの中核に据える戦略を明確に打ち出した。 AIエージェントがKubernetesを自律運用する時代へ MicrosoftのJorge Palma氏はキーノートセッションで、AIエージェントがKubernetesクラスターの運用・トラブルシューティングを自律的に行う将来像を示した。従来は熟練のSRE(サイト信頼性エンジニア)が手動で対応していたような障害検知・根本原因分析・自動修復のサイクルを、AIエージェントが担うというビジョンだ。 これはクラウドネイティブ運用における「AIOps」の方向性と一致しており、日本企業においても運用コスト削減やエンジニアリソースの再配置という観点から注目に値する動向といえる。 GPUスケジューリングとマルチテナント推論の運用事例 セッションでは実運用の知見も共有された。特に注目されたのは以下の2点だ。 GPUスケジューリングの最適化:LLM(大規模言語モデル)の推論ワークロードはGPUリソースを大量消費するため、Kubernetes上でのGPU割り当て戦略が収益性に直結する。Microsoftはスケジューリング効率を高めるための取り組みを紹介した。 Kueueを使ったマルチテナント推論:CNCFのジョブキューイングプロジェクト「Kueue」を活用することで、複数チームや複数サービスが共有するGPUクラスターを公平かつ効率的に利用できる運用パターンが示された。モデルサービングの並列実行やバッチ処理の優先度制御など、エンタープライズ用途における実践的なアプローチとして評価されている。 オープンソース戦略としての意義 Microsoftがこうした取り組みをオープンソースコミュニティで推進していることには戦略的な意味がある。Azure Kubernetes Service(AKS)の採用拡大に直結するだけでなく、KubernetesエコシステムにおけるMicrosoftの影響力を強化する。 KueueやGPUスケジューラーの改善はアップストリームにコントリビュートされており、AWSやGCPを使うユーザーにも恩恵が及ぶオープンな貢献として歓迎されている。 日本企業への示唆 日本においても、生成AIシステムの本番運用を検討する企業が増えている。KubernetesベースのAIインフラは、オンプレミスとクラウドのハイブリッド構成を取りやすく、既存のコンテナ運用資産を活かせる点で有力な選択肢だ。今回発表された運用パターンやOSSツールは、Azure以外の環境でも応用できるため、インフラエンジニアは注目しておきたい。 元記事: Microsoft Advances Open-Source AI Infrastructure on Kubernetes at KubeCon Europe 2026

March 26, 2026 · 1 min · 胡田昌彦

Microsoft Foundry Agent ServiceがGA——完全プライベートネットワーク・リアルタイム音声・エンタープライズ評価基盤が揃う

Microsoft Foundry Agent Service が正式リリース(GA) Microsoftは2026年3月、次世代AIエージェント基盤「Foundry Agent Service」の一般提供(GA)を発表した。プロトタイプから本番運用への移行を阻む主要課題——ネットワーク分離、コンプライアンス、音声チャネル、継続的な品質評価——をまとめて解決する構成が揃った。 主な新機能 エンドツーエンドのプライベートネットワーキング 本番AIシステムで最も障壁となりやすいのが、クエリ内容や取得ドキュメントが外部ルーティングを経由してしまうリスクだ。Foundry Agent Serviceは「BYO VNet(Bring Your Own VNet)」をサポートし、エージェントトラフィックがパブリックインターネットを一切経由しない構成を実現した。 コンテナ・サブネットをユーザー自身のVNetに注入 MCP(Model Context Protocol)サーバー、Azure AI Search、Fabricデータエージェントへのツール接続もプライベートネットワーク内で完結 MCP認証はキーベース・Entra エージェントID・マネージドID・OAuthアイデンティティパススルーを単一サービスで統合 データ分類ポリシーが厳格な金融・医療・官公庁などの領域で特に重要な強化点となる。日本国内でもAzure Japan Eastリージョンがホスト型エージェントのプレビュー対応リージョンに追加されており、国内データ主権の要件にも対応しやすくなった。 Responses APIベースのオープンなランタイム Foundry Agent ServiceはOpenAIの「Responses API」と互換性のあるワイヤプロトコルを採用している。現時点でResponses APIを使って開発している場合、Foundryへの移行はコード変更を最小限に抑えられる。 アーキテクチャはモデルプロバイダーやオーケストレーションフレームワークに依存しない設計で、DeepSeek・xAI・Meta・LangChain・LangGraphなどのオープンモデルも統合可能だ。「計画フェーズはDeepSeekモデル、生成フェーズはOpenAIモデル、オーケストレーションはLangGraph」といった構成も単一プロトコルで扱える。 なお、従来の azure-ai-agents パッケージは廃止され、azure-ai-projects の AIProjectClient でエージェント操作が統合された。 Voice Live(プレビュー)との統合 Voice Live APIとFoundry Agentsを組み合わせることで、リアルタイムの音声対話エージェントをフルマネージドで構築できるようになった。エージェントのプロンプト定義・ツール・トレースと音声I/Oがネイティブに接続される。コールセンター自動化やリアルタイム技術サポートなどのユースケースが現実的な選択肢となってくる。 評価(Evaluations)のGA 評価機能もGAとなり、以下が利用可能になった。 すぐに使えるビルトインエバリュエーター(関連性・グラウンディング・安全性など) カスタムエバリュエーター(独自の評価指標を定義) Azure Monitorへの継続的本番監視パイプライン リリース前の一回限りのチェックボックスではなく、本番稼働後も継続的に品質をモニタリングする仕組みが標準で組み込まれた。 Foundry REST APIもGA化 /openai/v1/ エンドポイントとして提供されるFoundry REST APIが正式GAとなり、安定したSDKコントラクトが保証された。本番システムへの組み込みに必要な安定性が担保されたことになる。 まとめ Foundry Agent ServiceのGAは、エンタープライズAIエージェント開発の「プロトタイプから本番へ」というギャップを埋める実装が揃ったことを意味する。特にプライベートネットワーキングの完全対応と評価基盤のGA化は、コンプライアンス要件の厳しい日本企業にとって本番導入の現実性を大きく高める。Japan Eastリージョンのホスト型エージェント対応も加わり、国内での活用シナリオはさらに広がりそうだ。 元記事: Foundry Agent Service is GA: private networking, Voice Live, and enterprise-grade evaluations ...

March 26, 2026 · 1 min · 胡田昌彦

Mistral Large 3がMicrosoft Foundryで利用可能に——Apache 2.0ライセンスのオープンモデルがエンタープライズ市場に本格参入

Mistral Large 3、Azure(Microsoft Foundry)で正式提供開始 Microsoftは、フランスのAIスタートアップMistral AIが開発した最新フロンティアモデル「Mistral Large 3」をMicrosoft Foundry(Azure)上で利用可能にしたと発表した。Apache 2.0ライセンスのオープンウェイトモデルとして、商用利用・ファインチューニングの自由度が高く、エンタープライズ向けのAI開発基盤として注目を集めている。 オープンモデルとして最強クラスの性能 Mistral Large 3は、DeepSeekやGPT OSSファミリーと並ぶグローバルトップクラスのオープンモデルと位置づけられる。単純なベンチマーク最適化にとどまらず、実際のエンタープライズ用途を想定した設計が特徴だ。 主な性能特性は以下の通り: 高精度な命令追従(Instruction Following): タスク指示への正確な準拠、低ハルシネーション率、構造化出力の安定したフォーマット 長コンテキスト処理: 長文書類・複数ステップのシーケンス・長期対話セッションにわたって一貫した推論が可能 マルチモーダル推論: テキストと画像を組み合わせた推論、ビジュアルQ&A、図表の解釈などに対応 特に多ターン会話や複雑な長文入力におけるブレークダウンの少なさは、他のオープンモデルと比較して際立つとMistral AIは述べている。 Apache 2.0ライセンスが生む圧倒的な自由度 日本を含むグローバル企業にとって重要なのが、ライセンス面での優位性だ。Mistral Large 3はApache 2.0ライセンスのもとで提供されており、以下が可能となる: 商用アプリケーションへの組み込み(帰属表示不要) モデルウェイトのエクスポートとオンプレミス展開 自社VPC・エッジ・ソブリンクラウド環境での実行 自由なファインチューニングとカスタマイズ 「中国外で開発されたフロンティアレベルの完全オープンモデル」という点で、ベンダーロックイン回避を求める企業に対し強い訴求力を持つ。 Microsoft Foundryとの統合でエンタープライズ展開を加速 Azure上のMicrosoft Foundryは、モデルの開発・評価・デプロイを一元管理できるエンドツーエンドのワークスペースを提供する。Mistral Large 3はこの基盤に統合されており、RAG(Retrieval-Augmented Generation)、エージェントシステム、ドキュメント理解、長文要約などのユースケースで即座に活用可能だ。 日本企業においても、社内文書検索や業務自動化フローへの適用が現実的な選択肢となってくる。GPT-4系列と異なり、オープンウェイトであることから自社環境への持ち込みや細かなカスタマイズを重視する組織にとって、特に魅力的な選択肢といえるだろう。 まとめ Mistral Large 3のAzure提供開始は、オープンウェイトモデル市場における重要な転換点だ。フロンティア級の性能・完全なオープンライセンス・Microsoft Foundryによるエンタープライズサポートという三拍子が揃ったことで、クローズドモデル一辺倒だった企業のAI戦略に新たな選択肢が加わった形となる。 元記事: Mistral Large 3 on Microsoft Foundry: Open, Multimodal, Enterprise-Ready

March 26, 2026 · 1 min · 胡田昌彦

Azure AI Foundryが大幅強化——GPT-4.5プレビュー、NVIDIA NIM統合、RFTによるエンタープライズAI最適化が一挙解禁

Azure AI Foundryが大規模アップデート——エンタープライズAI基盤が次のステージへ Microsoftは、エンタープライズ向けAIアプリケーションの設計・カスタマイズ・管理を一元化するプラットフォーム「Azure AI Foundry」に対し、大規模なアップデートを発表した。新モデルの追加、ファインチューニング・蒸留技術の強化、エージェント向け新ツールの提供開始が柱となっており、AIの実験段階から実業務への展開を加速させることが目的だ。 GPT-4.5、Azure OpenAI Serviceでプレビュー提供開始 今回の目玉の一つが、GPT-4.5のAzure OpenAI Serviceへのプレビュー追加だ。GPT-4.5はスケーリングと教師なし学習技術の進化を示すモデルで、以下の点でGPT-4oを大きく上回る。 ハルシネーション率の低下: 61.8%(GPT-4o)→ 37.1%(GPT-4.5) 正確性の向上: 38.2%(GPT-4o)→ 62.5%(GPT-4.5) 自然な対話体験: より高い「EQ」(感情的知性)により、コーディング・文章作成・問題解決をより効果的にサポート エンタープライズ向けに即日提供が開始されており、GitHub Copilot EnterpriseユーザーもGitHub Copilot Chat経由で利用可能となっている。業務メール作成からプロジェクト管理、複雑なワークフロー自動化まで幅広い用途に対応する。 Phiシリーズ・Stability AIモデルも続々展開 Microsoftが開発するコンパクトモデル「Phi」シリーズも新世代モデルを投入した。 Phi-4-multimodal: テキスト・音声・視覚を統合したマルチモーダルモデル。小売店舗のキオスク端末がカメラと音声入力で商品トラブルを診断するといったユースケースが想定される。 Phi-4-mini: 38億パラメータながら128Kトークンのコンテキストウィンドウを持ち、コーディング・数学タスクで大規模モデルを凌駕。推論速度は旧世代比30%向上。 また、画像生成AIで知られるStability AIのモデル群も統合された。Stable Diffusion 3.5 Largeはマーケティング素材の高品質生成、Stable Image Ultraはプロダクト画像のフォトリアリスティックな生成を可能にする。 NVIDIA NIM・AgentIQとの統合でエンタープライズAI最適化が加速 今回のアップデートで特に注目されるのが、NVIDIA NIMマイクロサービスおよびAgentIQツールキットとの統合だ。これにより、AIワークロードの推論効率をハードウェアレベルで最適化する選択肢が広がった。さらに、NVIDIA Nemotronモデルのサポートも発表されており、産業向けAIアプリケーションの選択肢が一層充実する。 ファインチューニング手法の拡充——RFTとSFTの新オプション カスタマイズ面では、o4-miniを使ったReinforcement Fine-Tuning(RFT)が利用可能になったほか、GPT-4.1-nanoおよびLlama 4 Scoutを使ったSFT(教師あり微調整)も追加された。RFTは報酬信号を使ってモデルの推論能力を特定タスクに最適化する手法で、法律文書分析や金融レポート生成など、精度が求められる業務ユースケースへの活用が期待される。 まとめ——エンタープライズAI基盤としての競争力を強化 今回の一連のアップデートは、AzureをAI本番運用のエンタープライズ基盤として選ばせるためのMicrosoftの本気度を示している。GPT-4.5の精度向上、小型・高効率なPhiシリーズ、NVIDIAとの深い統合、多様なファインチューニング手法——これらが揃うことで、企業はユースケースに応じたAI戦略を柔軟に設計できるようになる。日本企業にとっても、Azureを基盤に据えたAI導入の選択肢が大幅に広がったといえるだろう。 元記事: Announcing new models, customization tools, and enterprise agent upgrades in Azure AI Foundry

March 26, 2026 · 1 min · 胡田昌彦

Azure AI FoundryのAgent Service・Observability・Foundry PortalがGA——エンタープライズAIエージェント基盤が本格始動

Azure AI Foundryが本番対応へ——3つの主要機能がGA Microsoftは、Azure AI Foundryの中核をなすAgent Service、Observability(可観測性)、Foundry Portalの3機能を正式リリース(General Availability)した。これにより、エンタープライズグレードのAIエージェント基盤として、開発から本番運用までのフルスタックが整ったことになる。 本番対応SDKが主要4言語で利用可能に Agent Serviceでは、Python・JavaScript・Java・.NET向けの本番対応SDKが揃い、既存の企業システムへの統合が大幅に容易になった。従来のプレビュー期間中に蓄積されたフィードバックをもとに安定性が強化されており、PoC(概念実証)から本番システムへの移行を検討していたチームにとって大きな前進となる。 セキュリティ強化:BYO VNetによるネットワーク分離 エンタープライズ利用で特に注目されるのが、BYO VNet(Bring Your Own Virtual Network)への対応だ。自社のAzure仮想ネットワーク内にAgent Serviceを閉じ込めることで、パブリックインターネットへの露出を最小化できる。金融・医療・公共分野など、厳格なネットワーク分離要件を持つ業種にとって、導入の障壁が大きく下がることになる。 日本でも金融庁や経済産業省がAIシステムのセキュリティガイドラインを相次いで整備しており、プライベートネットワーク分離は実装要件として挙げられることが多い。このアップデートはその流れに直接応えるものだ。 MCPツール連携でエージェントの拡張性が向上 MCP(Model Context Protocol)ツールとの連携にも対応した。MCPはAnthropicが提案しAIコミュニティに広まりつつあるオープンなツール統合プロトコルで、外部サービスやデータソースとAIエージェントをシームレスに接続できる。Azure AI FoundryがMCPをサポートしたことで、Microsoft製品に限らず幅広いエコシステムとの統合が現実的になる。 Observabilityで本番運用の「見える化」を実現 AIエージェントの本番運用で長らく課題とされてきた可観測性についても、専用のObservability機能がGAとなった。エージェントの実行ログ、レイテンシ、エラー率、コスト追跡などをAzure Portalから一元管理できる。複数エージェントが協調して動作するマルチエージェント構成でもトレーシングが機能するため、障害発生時の原因特定が格段にしやすくなる。 Foundry Portalで開発体験を統合 Foundry Portalはエージェントの設計・テスト・デプロイ・監視をブラウザ上で完結させるUI統合環境だ。コードを書かずにエージェントのプロトタイピングができるノーコード的なワークフローと、SDKを使った本格開発の両方をサポートする。チーム内の非エンジニアメンバーがエージェントの動作を確認・評価するための窓口としても機能する。 エンタープライズAIエージェント開発の新局面 GPT-4やClaude、Geminiといった大規模言語モデルの能力が向上するにつれ、AIエージェントの活用範囲は急速に拡大している。一方で「PoC止まり」「本番移行できない」という声も多く聞かれた。今回のGA発表は、Azure AI Foundryがその壁を乗り越えるための基盤を整えたことを意味する。 MicrosoftのAzure AI Foundryは、OpenAIとの深い連携に加え、エンタープライズ向けの運用管理機能を積み上げてきた。今後は本番稼働事例の積み上げとともに、日本国内での採用事例も増えてくることが予想される。 元記事: Foundry Agent Service, Observability, and Foundry Portal Now Generally Available

March 26, 2026 · 1 min · 胡田昌彦

【2026年3月パッチ火曜日】Microsoft、83件のCVEを修正——Azure MCPサーバーのSSRF脆弱性(CVE-2026-26118)に要注意

Microsoftは2026年3月のパッチ火曜日(Patch Tuesday)において、83件のCVE(Common Vulnerabilities and Exposures)に対処するセキュリティ更新プログラムをリリースした。深刻度の内訳は「Critical(緊急)」が8件、「Important(重要)」が75件となっている。 Azure MCPサーバーのSSRF脆弱性が要注意 今月のアップデートで特に注目すべきは、Azure MCP(Model Context Protocol)サーバーに存在するSSRF(Server-Side Request Forgery)脆弱性(CVE-2026-26118)だ。CVSSv3スコアは8.8と高く、MCPサーバーを活用したAI開発環境を運用している組織には優先的な適用が推奨される。MCPはAnthropicが主導する標準プロトコルで、AIエージェントと外部ツール・データソースを繋ぐ仕組みとして急速に普及しており、その普及に伴い攻撃対象面も広がっている点に留意が必要だ。 ゼロデイを含むSQL Server特権昇格(EoP) CVE-2026-21262、CVE-2026-26115、CVE-2026-26116は、Microsoft SQL Serverに影響する特権昇格(EoP)脆弱性で、いずれもCVSSv3スコア8.8。このうちCVE-2026-21262はパッチ公開前にゼロデイとして公開されていた。悪用に成功すると攻撃者はSQL Serverのsysadmin権限を取得できるため、データベース管理者は早急な対応が求められる。 .NETのDoS脆弱性もパッチ公開前に情報漏洩 CVE-2026-26127は、.NET 9.0および10.0(Windows・macOS・Linux対応)に影響するサービス拒否(DoS)脆弱性で、CVSSv3スコアは7.5。こちらもパッチ公開前に情報が公開されたが、Microsoftは「悪用の可能性は低い」と評価している。同時に、Linux上の.NET 10に存在するEoP脆弱性(CVE-2026-26131)も修正された。 Windowsカーネルの特権昇格にも複数の修正 Windowsカーネルに影響するEoP脆弱性として、CVE-2026-24287、CVE-2026-24289、CVE-2026-26132の3件が修正された(各CVSSv3スコア7.8)。ローカルの認証済み攻撃者がSYSTEM権限を取得できる可能性があり、CVE-2026-24289とCVE-2026-26132は「悪用の可能性が高い(Exploitation More Likely)」とMicrosoftが評価している。2026年に入りWindowsカーネルのEoPパッチは累計6件に達した。 今月の傾向 今月修正された脆弱性の種類別では、**特権昇格(EoP)が55.4%**と最多で、リモートコード実行(RCE)の20.5%がこれに続く。MCPサーバーやAzure関連サービスを利用している環境では特に早急な適用を検討されたい。 元記事: Microsoft March 2026 Patch Tuesday: 83 CVEs including Azure MCP Server SSRF (CVE-2026-26118)

March 25, 2026 · 1 min · 胡田昌彦

AI・テクノロジーの情報を発信しています

YouTube

AI・テクノロジーの最新トレンドを動画で配信中

note

技術コラム・深掘り記事を公開中