Azure AI Foundryのgpt-4oファインチューニング、サポート期間を延長——企業の移行計画に猶予

Azure AI Foundry、gpt-4oファインチューニングのサポート期間を延長 Microsoftは、Azure AI Foundry上で提供しているgpt-4oおよびgpt-4o-miniのファインチューニング(Fine Tuning)機能について、サポート終了(EOL)の日程を延期することを発表した。すでに本番環境でカスタムモデルを稼働させている企業に対し、移行作業の猶予期間が与えられた形となる。 ファインチューニングとは ファインチューニングとは、汎用的な大規模言語モデル(LLM)を特定のタスクやドメインに特化させるための追加学習手法だ。自社の業界用語・文体・業務フローに最適化したモデルを構築できるため、カスタマーサポートや社内ドキュメント検索、コード補完など多様な用途で活用されている。 企業への影響 今回のサポート延長は、すでにgpt-4oまたはgpt-4o-miniのファインチューニング済みモデルを本番パイプラインに組み込んでいる企業にとって特に重要な意味を持つ。EOLが近づく中でモデルの切り替えを余儀なくされていた場合、予期せぬ動作変化やリグレッションのリスクを抱えながらの対応を迫られていた。今回の延期によってその時間的プレッシャーが緩和され、段階的かつ計画的なモデル移行が可能になる。 日本企業においても、Azure OpenAI Serviceを通じてファインチューニング機能を採用する事例は増加傾向にあり、特に製造・金融・医療分野での活用が広がっている。サポート期間の延長は、これらのワークフローの安定稼働を後押しする。 今後の移行に向けて Microsoftは引き続き次世代モデルへの移行を推奨しており、今回の延期はあくまで「移行のための猶予」と位置づけている。企業側は、新しいEOL日程を確認した上で、モデルの再評価やファインチューニングデータの移植計画を進めることが求められる。 Azure AI Foundryのポータルまたは公式ドキュメントから、各モデルの最新のライフサイクル情報を定期的に確認することを推奨する。 元記事: Announcing extended support for Fine Tuning gpt-4o and gpt-4o-mini

March 25, 2026 · 1 min · 胡田昌彦

Azure SQL Managed Instance、SQL Server 2025更新ポリシーが正式GA——最新エンジン機能を継続受信可能に

Azure SQL Managed Instance、SQL Server 2025更新ポリシーが正式GA Microsoftは、Azure SQL Managed Instance(以下、SQL MI)において「SQL Server 2025更新ポリシー」が一般提供(GA)に達したことを発表した。これにより、Azure SQL MIユーザーは最新のSQLエンジン機能とAzure統合機能を継続的に受け取れる環境が正式に整った。 更新ポリシーとは何か Azure SQL Managed Instanceの「更新ポリシー」とは、インスタンスがどのタイミングでどのバージョンのSQLエンジン機能を受け取るかを制御する設定だ。従来は「SQL Server 2022」ポリシーがデフォルトだったが、今回のGAにより「SQL Server 2025」ポリシーがAzureポータルの新規インスタンス作成時のデフォルトとなった。 SQL Server 2025ポリシーを選択することで、以下のような恩恵を受けられる: 最新のSQLエンジン機能を継続的に受信(新しいT-SQL構文、クエリオプティマイザーの改善など) Azure固有の統合機能(Azure AI、Fabric連携など)をいち早く利用可能 Microsoftが今後リリースするSQL Server 2025相当の新機能が自動的に適用される 既存インスタンスの移行手順 既存のSQL MIインスタンスをSQL Server 2022ポリシーからSQL Server 2025ポリシーに変更する場合、Azureポータルの「コンピューティング + ストレージ」設定画面から更新ポリシーを切り替えることができる。Azure CLI(az sql mi update)やPowerShellからの変更も可能だ。 ただし、移行にあたっては以下の点に注意が必要だ: ポリシー変更は一方通行:SQL Server 2025ポリシーに変更後、SQL Server 2022ポリシーに戻すことはできない アプリケーションの互換性確認:新機能の一部が既存アプリケーションの動作に影響を与える可能性があるため、開発環境での事前検証を推奨 フェイルオーバー:ポリシー変更時に短時間のフェイルオーバーが発生する場合がある 日本のユーザーへの影響 日本国内でも多くの企業がAzure SQL Managed Instanceをオンプレミスから移行する際の選択肢として活用している。SQL Server 2025更新ポリシーのGAにより、今後新規にSQL MIを採用する案件では自動的にこのポリシーが適用されることになる。既存の運用システムを持つ企業は、アップグレードのタイミングと互換性を慎重に評価した上で移行計画を立てることを推奨する。 Microsoftは今後もSQL Server 2025ポリシーを通じて、AIや大規模データ処理に対応した新機能を順次展開していく方針を示している。クラウドネイティブなSQL環境への移行を検討している企業にとって、今回のGAは重要なマイルストーンと言えるだろう。 元記事: GA of update policy SQL Server 2025 for Azure SQL Managed Instance ...

March 25, 2026 · 1 min · 胡田昌彦

MicrosoftがKubeCon Europe 2026でAKS強化機能を大量発表——GPU監視・ロールバック・ネットワーク可視化が揃った

MicrosoftがKubeCon Europe 2026で大量のKubernetes新機能を発表 Microsoftは2026年3月、ロンドンで開催された「KubeCon + CloudNativeCon Europe 2026」に合わせ、Azure Kubernetes Service(AKS)とオープンソースエコシステムに関する複数の新機能を発表した。信頼性・パフォーマンス・セキュリティ・AI対応ワークロードの各分野にまたがる強化で、本番環境でのKubernetes運用をより堅牢にすることを目指している。 GPUパフォーマンス監視——PrometheusとGrafanaで可視化 生成AIブームを背景にGPUワークロードのKubernetes運用が急増する中、AKSはPrometheusとGrafanaを統合したGPUパフォーマンス監視機能を新たに提供する。GPU使用率・メモリ・温度などの指標をクラスター横断で収集・可視化できるため、AIモデルの学習推論ジョブのボトルネック特定が格段に容易になる。日本国内でも大規模言語モデル(LLM)の学習やファインチューニングにAKSを活用する事例が増えており、この機能は現場の悩みに直結する改善といえる。 ノードプールのロールバック機能——障害時の迅速な復旧を実現 ノードプールのアップグレード後に問題が発生した場合に、以前の状態へ安全にロールバックできる機能が追加された。Kubernetesクラスターのバージョンアップは本番環境では常に緊張を伴う作業だが、ロールバックの選択肢があることで運用担当者のリスクを大幅に低減できる。カナリアリリースとの組み合わせで、より積極的なアップグレード戦略を採りやすくなる。 L3/L4/L7ネットワーク可視化——通信フローを階層別に把握 ネットワークトラブルシューティングの難しさはKubernetes運用の大きな課題の一つだ。今回の発表では、OSIモデルのL3(ネットワーク層)・L4(トランスポート層)・L7(アプリケーション層)それぞれのトラフィックを可視化する機能が公開された。マイクロサービス間の通信フローをレイヤー別に把握できることで、障害の切り分けや性能問題の根本原因調査が効率化される。 OSSコミュニティへの継続的なコミットメント Microsoftはこれらのサービス機能強化に加え、Kubernetes本体やCNCF(Cloud Native Computing Foundation)配下のプロジェクトへの上流貢献も続けている。「Kubernetesをすべての人にとってより良いものにする」というMicrosoftの方針は、クラウドベンダーとしての利益追求と、コミュニティへの貢献を両立させる姿勢として業界内で評価されている。 日本での活用ポイント AKSは国内でも多くのエンタープライズ企業が採用しており、今回の発表は特に以下のユーザーに恩恵をもたらす。 AIインフラチーム: GPU監視でLLMの学習コストと性能を最適化したい SREチーム: ノードプールロールバックで夜間アップグレードのリスクを下げたい ネットワーク担当者: マイクロサービス間通信の可視化でトラブル対応を迅速化したい 各機能の詳細とプレビュー参加方法はAzureドキュメントで順次公開される予定だ。 元記事: What’s new with Microsoft in open-source and Kubernetes at KubeCon + CloudNativeCon Europe 2026

March 25, 2026 · 1 min · 胡田昌彦

AKSがKubernetes Gateway APIをプレビュー対応——Ingress-NGINX廃止への移行パスが明確に

AKSがGateway APIをプレビューサポート——Ingress-NGINXからの移行に備えよ Microsoftは2026年3月18日、Azure Kubernetes Service(AKS)のアプリケーションルーティングアドオンにおいて、Kubernetes Gateway APIのプレビューサポートを発表した。これにより、従来のIngress APIに代わる新しいトラフィック管理モデルがAKSに導入されるとともに、2026年11月に迫るIngress-NGINXの廃止に向けた明確な移行パスが示された形だ。 なぜ今、Gateway APIなのか KubernetesにおけるHTTPサービス公開の定番手段だったIngress APIは、仕様が意図的に最小限に抑えられており、高度なルーティングには各プロバイダー独自のアノテーションを使わざるを得なかった。また、単一リソースのフラットなモデルは、プラットフォームチームとアプリチームが役割分担する実際の組織構造とかみ合わない点も課題だった。 これを解決すべくSIG Networkが設計したのがGateway APIだ。以下の3層構造でロールに応じた責任分担を実現する。 GatewayClass — ゲートウェイインフラの種別定義(インフラ運用者が管理) Gateway — ゲートウェイとリスナーのインスタンス化(クラスター運用者が管理) HTTPRoute / GRPCRoute — アプリのトラフィックルール(開発チームが管理) この分離により、プラットフォームチームが共有ゲートウェイインフラを所有しつつ、アプリチームが独立してルーティングルールを制御できる。トラフィック分割やヘッダーベースルーティング、バックエンドの重み付けといった機能もファーストクラスでサポートされており、これまでベンダー固有の回避策が必要だった機能が標準化される。 Ingress-NGINXの廃止タイムライン 2025年11月、Kubernetes SIG NetworkとSecurity Response CommitteeはIngress-NGINXプロジェクトの廃止を発表し、2026年3月にアップストリームのメンテナンスが終了した。 Microsoftは移行期間のブリッジとして、アプリルーティングアドオンのマネージドNGINX実装に対するセキュリティパッチ提供を2026年11月まで継続する。ただしそれ以降はAzureサポートの対象外となるため、利用者はそれまでに移行を完了する必要がある。 新モード:--enable-app-routing-istio 今回の新機能は--enable-app-routing-istioオプションで有効化する。内部的には軽量なIstioコントロールプレーンを展開してゲートウェイインフラを管理するが、フルのIstioサービスメッシュは有効化しない。サイドカーインジェクションなし、ワークロードへのIstio CRD適用なし——Istioが得意とするEnvoyベースのゲートウェイプロキシ管理だけを行う構成だ。 approuting-istio GatewayClassを使ってGatewayリソースを作成すると、AKSは以下を自動プロビジョニングする。 トラフィックを処理するEnvoyベースのDeployment 外部公開用のLoadBalancer Service HorizontalPodAutoscaler(デフォルト:CPU 80%で2〜5レプリカ) 安全なアップグレードのためのPodDisruptionBudget(最低1台稼働保証) ユーザーはGatewayとHTTPRouteを定義するだけで、インフラ管理はAKSに任せられる。 既存のIstioサービスメッシュアドオンとの違い 既にIstioサービスメッシュアドオンを使っている場合は注意が必要だ。両者は同時に有効化できず、一方を有効にするには他方を無効にする必要がある。主な違いは以下の通り。 項目 アプリルーティング Gateway API Istioサービスメッシュアドオン GatewayClass approuting-istio istio サイドカーインジェクション なし クラスター全体で有効 Istio CRD インストールなし インストールあり アップグレード インプレース(マイナー・パッチ) マイナーバージョンはカナリア方式 Ingress-NGINXを利用中のAKSクラスターを運用している場合、2026年11月のサポート終了に向けて早めの移行計画を立てることが推奨される。 元記事: Announcing Gateway API support for App Routing (preview) | AKS Engineering Blog ...

March 25, 2026 · 1 min · 胡田昌彦

Foundry IQで「根拠のある回答」を実現——エンタープライズ向けAIエージェント構築の新手法

社内知識と連携するAIエージェントが企業導入の壁を越える Microsoftは、Azure AI FoundryのコンポーネントであるFoundry IQとFoundry Agent Serviceを統合し、企業向けナレッジグラウンデッド(知識根拠型)AIエージェントの構築を大幅に簡易化した。 RAGをエージェントワークフローに組み込む これまでエンタープライズ向けにRAG(Retrieval-Augmented Generation/検索拡張生成)を実装するには、ベクトルDB、インデックス管理、エージェントオーケストレーションを個別に統合する必要があり、開発コストが高かった。Foundry IQはこの複雑さを抽象化し、社内ドキュメントや業務データをエージェントが参照できる「ナレッジソース」として宣言的に定義できる仕組みを提供する。 Foundry Agent Serviceと組み合わせることで、エージェントは回答生成時に自動的に関連ドキュメントを検索・引用し、根拠のある回答を返すワークフローをコード量少なく実現できる。 日本企業にとっての意義 日本企業では社内規程・製品マニュアル・過去の問い合わせ履歴など、大量の非構造化データが眠っているケースが多い。汎用LLMに対してこれらを「根拠」として与えることで、ハルシネーション(事実誤認)を抑えた業務特化型アシスタントの構築が現実的になる。カスタマーサポート自動化、社内FAQ対応、技術文書検索といった用途への応用が見込まれる。 技術的ポイント Foundry IQ:ドキュメントの取り込み・チャンキング・ベクトル化・インデックス管理を一元管理するサービス Foundry Agent Service:ツール呼び出し・マルチステップ推論・メモリ管理を担うエージェント実行基盤 両サービスはAzure AI Foundryポータルからノーコードまたは少量のPython SDKで連携可能 Microsoft Entra IDによる認証・認可と統合されており、エンタープライズのセキュリティ要件を満たしやすい 今後の展開 MicrosoftはFoundryエコシステムを継続的に拡充しており、SharePoint・Dynamics 365・外部REST APIなど多様なデータソースとの接続強化も予告している。RAGパイプラインの「クラウドマネージドサービス化」という流れは、AWS BedrockのKnowledge BasesやGoogle Cloud Vertex AI Search with Grounding と同方向であり、各クラウドベンダーが企業のAI実装コスト低減を競っている構図だ。 自社データを活かしたAIエージェント導入を検討している企業にとって、Foundry IQは有力な選択肢の一つとなりそうだ。 元記事: Building Knowledge-Grounded AI Agents with Foundry IQ

March 25, 2026 · 1 min · 胡田昌彦

Azure SREエージェントがGA(一般提供)開始——インシデント調査・根本原因分析をAIが自律実行

Azure SREエージェントが正式GA——運用自動化の新時代へ Microsoftは、サイト信頼性エンジニアリング(SRE)業務をAIが自律的に支援するサービス「Azure SREエージェント」の一般提供(GA)を開始した。プレビュー期間中にMicrosoft社内チームや早期顧客とともに磨き上げた本製品は、日々の運用における調査・トリアージ・ナレッジ化を自動化する。 「自分たちの問題を解くために作った」 開発チーム自身が自社の運用課題を解決するために構築したという点が、このエージェントの特徴だ。リグレッションの調査、エラーの日次トリアージ、そして調査結果の再利用可能なナレッジへの変換——これらすべてをSREエージェントが担っている。 GAでの主要アップデート 再設計されたオンボーディング セットアップ当日から即戦力になることを設計目標に掲げた。コード、ログ、インシデント、Azureリソース、ナレッジファイルを単一のガイド付きフローで接続できる。 ディープコンテキスト——環境の専門家に育つエージェント ログ・コード・ナレッジへの継続的アクセスと、調査をまたいだ永続メモリを持つ。誰も質問していないときもバックグラウンドで環境を探索し続け、ルーティング設定・エラーハンドラー・デプロイ構成を自律的に把握する。前回の調査で何が効いたかを記憶し、誰も気づいていなかった運用上のインサイトを浮かび上がらせる。 注目の機能群 機能 概要 自動調査(能動・受動) スケジュール実行でインシデント化前に問題をキャッチ。ICM・PagerDuty・ServiceNowと連携し、発生したインシデントを自動ピックアップ 高速な根本原因分析(RCA) コードとコンテキストを理解し、ランタイムエラーを原因コードに結びつける。調査を重ねるごとに精度が向上し、MTTR(平均修復時間)を短縮 MCPコネクター経由のワークフロー自動化 Azure・監視ツール・チケッティングシステムなど複数プラットフォームをまたいだコンテキストスイッチを排除。単一の場所からオーケストレーション カスタムPythonツール 任意のHTTP APIを呼び出すPythonツールを記述し、社内APIや外部サービスと連携可能 スキル&プラグイン ドメイン固有のナレッジを教えるスキルを追加、またはプラグインマーケットプレイスからワンクリックでインストール 日本の現場への示唆 SREという概念はGoogleが提唱して以来、大規模サービスを運用する企業を中心に国内でも普及が進んでいる。Azure SREエージェントは、専任のSREチームを持ちにくい中規模組織でも、AIによる自律的な運用支援を実現できる可能性を持つ。PagerDutyやServiceNowとのインテグレーションは、既存の日本企業の運用フローとも親和性が高い。 GA版は現在利用可能で、ドキュメントや料金情報はAzure公式サイトで確認できる。 元記事: What’s new in Azure SRE Agent in the GA release

March 24, 2026 · 1 min · 胡田昌彦

VS Code向けAI Toolkit v0.32.0リリース — Agent Builder強化とGitHub Copilot連携で本番AIエージェント開発が加速

Microsoftは2026年3月、Visual Studio Code向けAI Toolkit(AIツールキット)のバージョン0.32.0をリリースした。今回のアップデートでは、開発者がVS Code上でAIエージェントを構築・デプロイするための機能が包括的に強化されている。 統合ツリービューによるUX改善 従来は機能ごとに分散していたパネルが、新たな統合ツリービューに一本化された。モデル管理・プロンプト設計・エージェント定義・デプロイ設定といった各工程を、1つのサイドバーから一貫して操作できるようになり、コンテキストスイッチのコストが大幅に減少する。 Agent Builder の大幅強化 AIエージェントを視覚的に設計できるAgent Builderが刷新された。複数のツール(Functions)をドラッグ&ドロップで組み合わせ、エージェントの動作フローを定義できる。定義したエージェントはそのままAzure AI FoundryやAzure App Serviceへデプロイ可能で、プロトタイプから本番環境への移行がよりスムーズになった。 GitHub Copilotとのエージェント開発連携 注目すべきはGitHub Copilotとの統合強化だ。Copilot Chat上でAI Toolkitのコンテキストを共有できるようになり、エージェント定義のコード生成や、プロンプトの改善提案をCopilotに依頼できる。AIエージェントをAIで開発するという「AI支援のAI開発」ワークフローが実用段階に入ったといえる。 ローカル/クラウドモデルのシームレス切り替え OllamaやLM Studio経由のローカルモデルと、Azure OpenAIやGitHub Models上のクラウドモデルを設定ファイルの切り替えだけで使い分けられるようになった。開発中はローカルLLMでコストゼロ、本番検証時はクラウドモデルへ即座に切り替えるといった運用が容易になる。 日本の開発者への影響 国内でもAzure AI FoundryやGitHub Copilotの採用が進む中、VS Code上でエンドツーエンドのエージェント開発環境が整ったことは大きい。特にMicrosoft 365 Copilot拡張(Copilot Extensions)や社内向けRAGエージェントを開発しているチームにとって、ローカル検証→クラウドデプロイのサイクルを短縮できる点で恩恵が大きいだろう。 AI ToolkitはVS Code Marketplaceから無料でインストール可能。GitHubリポジトリでもフィードバックを受け付けている。 元記事: 🚀 AI Toolkit for VS Code — March 2026 Update

March 24, 2026 · 1 min · 胡田昌彦

Visual Studio 2026にAzure MCPサーバーが標準搭載——自然言語でAzureリソースを管理する新時代へ

Visual Studio 2026にAzure MCPサーバーが標準搭載 Microsoftは、Azure MCP Server(Model Context Protocol) のツール群をVisual Studio 2026に標準搭載したことを発表した。開発者はIDEを離れることなく、Azureのクラウドリソースを自然言語で管理できるようになる。 これまでクラウドリソースの管理には、Azure Portalやカスタムスクリプト、CLIツールなど複数のツールを行き来する必要があった。今回の統合により、その文脈切り替えのコストが大幅に削減される。 Azure MCP Serverとは Azure MCPは、AIエージェントがAzureリソースに安全にアクセス・操作できるようにする標準ベースのModel Context Protocolサーバーだ。Visual Studio 2026はAI-nativeなIDEとして設計されており、GitHub Copilotと組み合わせることで以下のことが可能になる。 Azure Kubernetes Service(AKS)やAzure Container Apps、Cosmos DB、AI Foundry などの主要リソースをクエリ・管理 Infrastructure as Code をはじめとするAzure関連コードの自然言語生成 ログ・診断・テレメトリ への直接アクセスによるトラブルシューティング エンタープライズグレードのセキュリティベストプラクティス の自動適用 拡張されたAzure開発ツール群 Visual Studio 2026では、MCP Server以外にも以下のAzure向け機能が追加されている。 CI/CDの自動セットアップ ASP.NETやBlazor、Azure FunctionsプロジェクトのAzure DevOpsおよびGitHub ActionsワークフローをYAMLファイル・認証情報込みで自動生成できる。 簡単なデプロイ 発行プロファイルの作成・確認からAzure Web Appの選択・デプロイまで、自然言語プロンプトで完結する。 Azure CLIコマンド生成 やりたいことを伝えるだけで、Copilotが適切な az コマンドに変換してくれる。 日本の開発者への影響 Azureは国内でも多くのエンタープライズ案件で採用されており、Azure DevOpsやAKSを利用している開発チームにとって今回の統合は実務的な恩恵が大きい。Visual Studio 2026を導入済みであればVisual Studio Installerから「Azure and AI development」ワークロードとGitHub Copilotを有効化するだけで利用できる。 ...

March 24, 2026 · 1 min · 胡田昌彦

Azure DevOps リモートMCPサーバーがパブリックプレビュー公開——ローカル設定不要でAIエージェント連携が可能に

Azure DevOps リモートMCPサーバー、パブリックプレビュー開始 Microsoftは、Azure DevOpsのリモートMCP(Model Context Protocol)サーバーをパブリックプレビューとして公開した。従来のローカルMCPサーバーと同等の機能を提供しながら、追加のインストールや設定を不要にしたホスト型実装だ。 MCPサーバーとは MCP(Model Context Protocol)は、AIエージェントが外部データソースやツールと標準化された方法でやり取りするためのプロトコル。Azure DevOpsのMCPサーバーを使うことで、GitHub CopilotなどのAIツールがAzure DevOps上のプロジェクト情報、ワークアイテム、リポジトリデータなどに直接アクセスできるようになる。 リモート版の特徴 今回公開されたリモートMCPサーバーは、ストリーミングHTTPトランスポートを採用したホスト型サービスとして動作する。利用開始に必要な作業は mcp.json への数行の追記だけだ。 元記事: Azure DevOps Remote MCP Server (public preview)

March 24, 2026 · 1 min · 胡田昌彦

Azure Firewall「Draft & Deploy」がGA正式リリース——本番ゼロダウンタイムでファイアウォールポリシーを安全更新

Azure Firewall「Draft & Deploy」が正式リリース——安全なポリシー管理ワークフローが一般提供へ Microsoftは2026年3月6日、Azure Firewallのポリシー管理機能「Draft & Deploy」の一般提供(GA: General Availability)を発表した。2025年6月のパブリックプレビュー開始から約9ヶ月を経て正式リリースとなったこの機能は、クラウドネットワーク管理者が本番環境に影響を与えることなくファイアウォールルールを安全にテスト・適用できるワークフローを提供する。 Draft & Deployとは 従来のAzure Firewallポリシー管理では、ルールの変更を即座に本番環境へ反映する必要があり、設定ミスがそのまま本番トラフィックに影響を与えるリスクがあった。「Draft & Deploy」はこの課題を解消する2フェーズ型のワークフローだ。 Draftフェーズ: ポリシー変更を下書き(Draft)として保存し、本番に適用せずに内容を検証・レビューできる Deployフェーズ: 検証済みの変更を一括で本番環境へ適用する このアプローチにより、複数のルール変更をまとめてテストし、問題がないことを確認してから一度に展開することが可能になる。DevOpsの「Infrastructure as Code」的な考え方をファイアウォール管理に持ち込んだ形といえる。 同時発表されたAzureの主要アップデート 3月6日のAzureアップデートでは、Draft & Deployの他にも複数の重要な変更が発表された。 ネットワーク設定の重要変更: 2026年3月末より、新規仮想ネットワーク(VNet)のデフォルトアウトバウンドインターネット接続が廃止される。新規VMやサービスがWindowsライセンス認証、Intune同期、Windows Updateに失敗する可能性があるため、Azure NAT Gatewayや同等のアウトバウンド経路を事前に設定しておく必要がある。日本のAzure利用企業にとっても影響が大きい変更のため、既存環境の見直しが推奨される。 Azure Databricks Lakebase GA: データレイク基盤を統合する「Lakebase」が正式リリース。ストレージとコンピュートのワークフローを簡素化し、データエンジニアリングの摩擦を低減する。 Azure Policy高速化: コンプライアンスルールの適用速度が向上し、ポリシー違反の検出から適用までのラグが短縮された。 コンテナ関連: Azure Container AppsにAI生成コードの分離実行向け「Dynamic Sessions」が追加。Azure Container Instances(ACI)では次世代Virtual Nodesへの移行も発表された。 AIモデル: GrokのGrok 4.0、Qwen3.5シリーズ、OpenAIのGPT-5.3およびGPT-5.4がAzure AI FoundryおよびGitHub Copilotに統合される予定。 エンジニアが今すぐ確認すべき点 最も緊急度が高いのはデフォルトアウトバウンド廃止への対応だ。2026年3月末という期限が迫っており、新規VNet作成時の設計を見直す必要がある。Azure NAT Gatewayの導入コストや設定工数を早急に見積もることを推奨する。 Draft & Deploy機能については、既存のAzure Firewallポリシーを持つ組織が段階的なルール更新プロセスを導入する絶好の機会だ。特にコンプライアンス要件が厳しい金融・医療分野の企業にとって、変更管理の記録が残るドラフトフェーズは監査対応にも有効活用できる。 元記事: Azure Firewall Draft & Deploy is Now Generally Available ...

March 24, 2026 · 1 min · 胡田昌彦

Azure Container AppsのDynamic SessionsにMCPエンドポイントが登場——AIエージェントがミリ秒でコード実行

Azure Container Apps Dynamic Sessions、AIエージェント向けMCPエンドポイントをパブリックプレビューで提供開始 Microsoftは、Azure Container Appsの「Dynamic Sessions」機能に、MCP(Model Context Protocol) エンドポイントを組み込んだパブリックプレビューの提供を開始した。これにより、AIエージェントがPython・Node.js・シェルスクリプトをミリ秒単位で起動するサンドボックス環境内で直接実行できるようになる。 MCPとは何か MCP(Model Context Protocol)は、Anthropicが提唱したオープン標準プロトコルで、AIモデルと外部ツール・データソースを標準化された方法で接続するためのインターフェース仕様だ。Claude、GPT-4などの大規模言語モデル(LLM)ベースのエージェントが、コード実行・ファイル操作・API呼び出しといった「アクション」を安全に行うための共通言語として業界内で急速に普及している。 今回のアップデートは、このMCPをAzureのマネージドサービスとしてネイティブに統合した点が最大のポイントだ。 Hyper-V隔離による高セキュリティなサンドボックス Dynamic Sessionsの核心は、Hyper-Vベースの仮想化によるセッション分離にある。各AIエージェントのコード実行リクエストは、独立したハイパーバイザーレベルのサンドボックス内で処理される。これにより、悪意あるコードインジェクションや、テナント間のデータ漏洩リスクを根本的に排除できる。 従来、AIエージェントに任意コード実行を許可するには、セキュリティとスケーラビリティの両立が大きな課題だった。コンテナ単位の分離では攻撃面が残り、VM単位の分離では起動時間がボトルネックになる。Dynamic SessionsはHyper-Vの軽量スナップショット技術を活用することで、ミリ秒レベルの起動時間とハイパーバイザーレベルの隔離を同時に実現している。 AIエージェント開発への影響 現在、LLMを活用したエージェントシステムの開発現場では、「ツール呼び出し(Tool Use)」機能を通じてコード実行環境を提供するケースが増えている。しかしその実装には、セキュリティポリシーの設計、スケーリング設定、セッション管理など、本質的なAI開発以外の作業が多く伴っていた。 Dynamic SessionsへのMCPエンドポイント統合により、これらのインフラ管理をAzureに委ねた上で、標準MCPクライアントから透過的にコード実行サンドボックスを呼び出せるようになる。Claude for AzureやAzure OpenAI Serviceと組み合わせたエージェントアーキテクチャへの親和性も高い。 日本のAzureユーザーへの示唆 国内でもAzure Container Appsを活用した社内AIエージェント・コパイロット開発が増加しているなか、今回のアップデートはセキュリティ要件が厳しい金融・医療・製造分野での採用ハードルを大きく下げる可能性がある。コード生成AIと安全な実行環境の統合をワンストップで提供するマネージドサービスとして注目したい。 現在パブリックプレビューとして提供中であり、本番環境への適用はGA(一般提供)後が推奨される。 元記事: Azure Container Apps Dynamic Sessions — Built-in MCP Endpoint for AI Agents

March 24, 2026 · 1 min · 胡田昌彦

Azure SREエージェントが正式GA——35,000件のインシデントを自動緩和、月2万時間の工数削減を実現

Microsoftは、Azure SRE(Site Reliability Engineering)エージェントの一般提供(GA)開始を正式発表した。プレビュー期間中に蓄積された実績は目を見張るものがあり、本番環境への展開に向けた準備が整ったと判断された形だ。 驚異的な実績でGAへ プレビュー期間を通じて、1,300以上のSREエージェントが実際の本番環境に展開された。その活動実績として、35,000件以上のインシデントを自動緩和し、月間20,000時間超のエンジニアリング工数を削減という具体的な数字が示されている。 SREの世界では、深夜のアラート対応や繰り返し発生する定型的なインシデント対応がエンジニアの疲弊を招くことが長年の課題だった。Azure SREエージェントはこの「アラート疲れ」を解消する手段として注目を集めている。 新機能「Deep Context」がデフォルト有効に GA版での目玉機能が「Deep Context(ディープコンテキスト)」だ。この機能はデフォルトで有効化されており、エージェントがインシデント対応時により深い文脈情報を参照できるようになる。 Deep Contextは、単にログやメトリクスを見るだけでなく、過去のインシデント履歴、システムの依存関係、変更履歴などを横断的に分析することで、根本原因の特定精度を高める。これにより、誤検知を減らしつつ、より的確な自動緩和アクションが実行される。 SREエージェントができること Azure SREエージェントは主に以下のような作業を自動化する。 アラートのトリアージ:大量のアラートを重要度に応じて自動分類 インシデントの初期対応:既知のパターンに基づく自動緩和アクションの実行 影響範囲の特定:依存サービスへの影響を自動でマッピング エスカレーション判断:人間のエンジニアへの引き継ぎが必要なケースの判別 利用方法 Azure SREエージェントは sre.azure.com からアクセス可能。Azureサブスクリプションを持つ組織であれば導入を検討できる。 日本国内でもSREやDevOpsの取り組みが広がる中、クラウドインフラのインシデント対応自動化は重要な経営課題となっている。月2万時間という削減実績は、中規模以上の開発組織にとって無視できないインパクトだ。 AIエージェントによるオペレーション自動化(AIOps)の本命サービスとして、Azure SREエージェントの動向は引き続き注目に値する。 元記事: Announcing general availability for the Azure SRE Agent

March 24, 2026 · 1 min · 胡田昌彦

【Azure速報】新規VNETのデフォルトアウトバウンドアクセスが3月末廃止——ゼロトラスト強制適用へ移行

新規VNETのデフォルトアウトバウンドアクセスが3月末に廃止 Microsoftは2026年3月末をもって、新規作成されるAzure仮想ネットワーク(VNet)およびリソースに対するデフォルトのアウトバウンドインターネットアクセスを廃止すると発表した。この変更はゼロトラストネットワーク姿勢(Zero Trust Network Posture)の強制適用を目的としており、既存リソースへの影響はない。 新規VNetを作成した場合、インターネットへの送信トラフィックは自動では通らなくなる。今後は以下のいずれかの明示的な設定が必要となる: NAT Gateway の構成 Azure Firewall や NVA(ネットワーク仮想アプライアンス) 経由のルーティング ロードバランサーのアウトバウンドルール設定 日本でもAzureを利用するシステム構築案件が増加しているが、この変更により「なんとなく繋がっていた」設計は通用しなくなる。新規構築時は設計段階からネットワーク経路を意識した構成が求められる。 同週のAzure主要アップデートまとめ 廃止・移行が必要なサービス 複数のサービス廃止が予告されており、管理者は早急に影響調査と移行計画の策定が必要だ。 AKS Flatcar Container Linux イメージの廃止 Azure Batch 向けVMサイズおよびイメージの一部廃止(Windows Server 2016 Marketplaceイメージは2027年1月12日以降サポート終了) HC / HBv2 / NP VMシリーズおよびStandard HDDの廃止 AVS AC30P / AV52ノードの廃止 Low-PriorityワークロードをSpot VMへ移行するよう強く推奨されている。 セキュリティ・アイデンティティ Microsoft Entra ID(旧Azure AD)が、Blob StorageへのSFTPアクセスのプレビューサポートを開始。バックアップ・リカバリ機能の強化も発表された。MFAの有効化とアクセス制御の見直しが改めて推奨されている。 データ分析:DatabricksとFabricの連携強化 Azure Databricks が Lakeflow Connect の無料枠を提供開始し、Microsoft Fabric との統合を強化。データ探索・コラボレーションの効率化が期待される。Fabric IQのアップデートによりショートカットやミラーリングも容易になる。 データベース強化 Azure Database for PostgreSQL:Premium SSD v2上でカスタマー管理暗号化キー(プレビュー)をサポート。Grafanaダッシュボード監視がGA(一般提供)に Azure SQL Database:バージョンレスTDE(Transparent Data Encryption)の追加、VS Code向けSQL Serverツールのアップデート AKS・ネットワーク・VMの強化 encryption-at-hostの自動プロビジョニング対応 LocalDNS改善・ノードの自動プロビジョニングオプション追加 ゲートウェイのスループット向上とIPv6サポート強化 AI・開発ツール 新たなAIモデルとして OpenAI GPT-5.4 mini / nano および Anthropic Claude Sonnet 4.6 がAzure AI Foundryで利用可能になった。NVIDIA Nemotron モデルのサポートも追加。Agent Serviceのオブザーバビリティ強化により、本番環境でのエージェント型ワークフローの監視が容易になる。 ...

March 24, 2026 · 1 min · 胡田昌彦

AKS向け「LocalDNS」がパブリックプレビュー開始——DNS解決の高速化と高可用性を実現

AKSにLocalDNSが登場——CoreDNSの集中負荷問題を解決 Microsoftは、Azure Kubernetes Service(AKS)向けの新機能「LocalDNS」をパブリックプレビューとして公開した。この機能はKubernetesクラスター内のDNS解決アーキテクチャを根本から改善するものだ。 LocalDNSとは何か 従来のAKSクラスターでは、すべてのDNSクエリがクラスター内の中央DNSサーバーであるCoreDNSに集中する構成となっていた。ノード数やPod数が増加するにつれてCoreDNSへの負荷は増大し、大規模クラスターではDNS解決のレイテンシ増加や、CoreDNSが単一障害点(SPOF)になるリスクが課題とされてきた。 LocalDNSはこの問題に対処するため、各ノードにDNSキャッシュプロキシをDaemonSetとして配置するアプローチを採用する。ノードローカルでDNSクエリをキャッシュ・処理することで、CoreDNSへのリクエストを大幅に削減できる。Kubernetes本家では「NodeLocal DNSCache」として知られるパターンで、AKSがマネージドサービスとして正式サポートする形だ。 得られるメリット パフォーマンスの向上:ノードローカルでDNSキャッシュを保持するため、ネットワークホップが減少しDNS解決のレイテンシが低下する。頻繁にアクセスされるサービス名の解決は特に高速化が期待できる。 高可用性の実現:CoreDNSへの依存が軽減されることで、CoreDNS Podの障害や再起動時にもDNS解決が継続しやすくなる。大規模本番クラスターでのレジリエンス向上に直結する。 スケーラビリティの改善:クラスター拡張時にCoreDNSがボトルネックになりにくくなり、Pod数の増加にともなうDNS負荷増大を自然に分散できる。 セキュリティ上の制約:vnetDNSOverridesの転送制限 注目すべき点として、外部ドメインの名前解決をvnetDNSOverrides経由でカスタムDNSサーバーへ転送する構成は、セキュリティ上の理由から拒否されることが明記されている。これはDNSリバインディング攻撃などのリスクを防ぐための設計判断であり、外部DNS転送が必要なケースでは代替設計を検討する必要がある。 日本のAKSユーザーへの影響 多数のマイクロサービスが相互に通信するシステムや、高トラフィックなサービスを運用するケースでは、DNS解決のパフォーマンスがシステム全体のレイテンシに影響する。LocalDNSはそうした環境における「見えにくいボトルネック」の解消策として有効だ。 現在はパブリックプレビュー段階のため、本番環境への適用には動作検証が推奨される。Azureポータルまたはaz CLIからAKSクラスターの設定で有効化できる見込みだ。GAに向けた機能成熟が期待される。 元記事: Public Preview: LocalDNS for AKS

March 24, 2026 · 1 min · 胡田昌彦

Azure VMイメージのホットパッチ適用がGA——再起動不要でセキュリティパッチを適用

Azure VMでホットパッチが一般提供開始——ダウンタイムゼロのセキュリティ管理へ Microsoftは、Azure仮想マシン(VM)イメージに対するホットパッチ(Hotpatching)機能の一般提供(GA)を開始した。この機能により、仮想マシンを再起動せずにセキュリティパッチを適用できるようになり、クラウドインフラの運用における大きな制約が解消される。 ホットパッチとは何か ホットパッチとは、OSのカーネルやシステムコンポーネントを実行中の状態のまま更新する技術だ。従来のパッチ適用では、変更を有効化するためにシステムの再起動が必要だった。特にサービスの継続性が求められる本番環境では、メンテナンスウィンドウの設定や事前告知など、パッチ適用に伴う運用コストが無視できない課題となっていた。 Azureのホットパッチは、Microsoftが長年Windows Serverカーネルに取り組んできたライブパッチ技術をクラウドVM向けに展開したもの。AWSの「Live Patching」やRed Hatの「RHEL Live Kernel Patching」と同様のアプローチを採用している。 2026年3月Patch Tuesdayにも即対応 今回のGA発表と時期を合わせ、2026年3月のPatch Tuesday(毎月第2火曜日に公開されるMicrosoftの定例セキュリティ更新)で公開された83件のCVE(Common Vulnerabilities and Exposures)修正についても、ホットパッチで対応可能であることが確認されている。 83件という修正件数は決して少なくなく、従来であればこれらすべてに再起動を伴う計画的なメンテナンスが必要だった。ホットパッチの活用により、ダウンタイムゼロでセキュリティ態勢を最新の状態に保つことが現実的になった。 日本企業への影響 日本では金融・医療・製造といった分野でクラウドシフトが進む一方、「サービス停止が許容できない」という理由でパッチ適用を後回しにするケースが散見される。ホットパッチのGA化は、こうした運用上のジレンマを解消する一手になりうる。 Azureをメインクラウドとして採用している企業はもちろん、ハイブリッドクラウド環境でAzure VMを活用している現場でも、パッチ管理戦略の見直しを検討する価値があるだろう。 今後の展開 MicrosoftはAzure Update Managerとの統合も進めており、ホットパッチの適用状況を一元的に管理・可視化できる仕組みの整備も期待される。セキュリティとサービス継続性の両立を目指すクラウド運用チームにとって、見逃せないアップデートだ。 元記事: Hotpatching now available for Azure VM images

March 24, 2026 · 1 min · 胡田昌彦

Azure大型アップデート総まとめ:Microsoft FabricがCI/CD・AIマルチモーダル対応で大幅強化(2026年3月第4週)

Microsoft Azure、3月第4週に大規模アップデートを一斉公開 2026年3月23日週のAzureアップデートは、Microsoft Fabricを中心とした怒涛のリリースラッシュとなった。データエンジニアリング、AI統合、セキュリティ、データベース開発ツールの各領域で20を超える新機能・改善が発表されており、日本のエンタープライズユーザーにとっても見逃せない内容となっている。 Microsoft Fabric:CI/CDとAI機能が大幅強化 最大のトピックは Microsoft Fabric の包括的な機能強化だ。今回のアップデートで特に注目すべき点を以下にまとめる。 CI/CD対応の本格化として、一括エクスポート・インポートAPI(Bulk Export and Import APIs)が新たに導入された。これにより、Fabricワークスペースのアーティファクトを自動化パイプラインで管理できるようになり、DevOpsフローとの統合が格段に容易になる。合わせてGit開発者エクスペリエンスも刷新されており、コード管理とデータパイプラインの連携を強化する方向性が明確になった。 マルチモーダルAIのFabric統合も大きな前進だ。画像やPDFからインサイトを抽出できるマルチモーダルサポートが「Fabric AI functions」に追加された。非構造化データを含む複合的な分析シナリオへの対応が、プラットフォームネイティブな形で実現する。 リアルタイム処理の強化では、データベースCDC(Change Data Capture)フィードとFabric EventstreamsのDeltaFlowを組み合わせたイベント駆動アプリケーション構築が可能になった。製造・金融・物流など、変更データのリアルタイム処理が求められる日本企業にとって実用性が高い。 データベース・開発者ツールも充実 SQL周辺の開発者ツールも大幅に進化している。SQL Server Management Studio(SSMS)22にGitHub Copilotが統合されたほか、SQL MCPサーバーの公開によりAIエージェントからのSQL操作が標準化された。また、MSSQLエクスポート向け「Schema Designer」へのGitHub Copilot統合や、「Data API builder」へのCopilot組み込みも発表されており、データベース開発全体のAI化が加速している。 Azure SQLでは、透過的データ暗号化(TDE)のバージョンレスキーサポートが追加された。キー管理の運用負荷を軽減できる実用的な改善だ。 廃止予定アナウンスにも注意 今回のニュースレターには、インフラ系VMシリーズの廃止スケジュールも複数含まれている。 HCシリーズ Azure VM:2027年5月31日廃止 HBv2シリーズ Azure VM:2027年5月31日廃止 NPシリーズ Azure VM:2027年5月31日廃止 Azure Sphere:2031年7月31日廃止 HPC(高性能計算)用途でHCシリーズやHBv2シリーズを利用中の組織は、移行計画の検討を開始する時期に来ている。 Azure Synapse→Fabricへの移行支援も強化 「Azure SynapseおよびAzure Data FactoryからMicrosoft Fabricへ」という移行ガイダンスも公開された。レガシー環境から次世代分析基盤への移行を検討している日本のデータチームにとって、具体的な移行パスが示された形だ。Spectral Core Fabric Workloadを通じたガイド付き移行体験も新たに提供される。 今回の大規模アップデートは、MicrosoftがFabricを「次世代データプラットフォームの中核」と位置付け、AIネイティブな開発体験の整備に本腰を入れていることを強く示すものだ。2026年はAzureデータ基盤の再構築を検討する絶好のタイミングと言えるだろう。 元記事: Azure Newsletter - 23/03/2026

March 24, 2026 · 1 min · 胡田昌彦

AKSでAzure Linux OS Guardがパブリックプレビュー開始——Istio CNIも同時プレビューでセキュリティを大幅強化

AKSのセキュリティが一段階進化——OS GuardとIstio CNIが同時プレビュー Microsoftは、Azure Kubernetes Service(AKS)において新機能「Azure Linux OS Guard」のパブリックプレビュー開始を発表した。同時に、サービスメッシュ実装の一部であるIstio CNIもプレビュー段階に移行した。いずれもAKSクラスターのセキュリティ強化を目的とした機能であり、特にエンタープライズ環境での本番運用を視野に入れたユーザーに注目されている。 Azure Linux OS Guardとは Azure Linux OS Guardは、AKSのノードOSとして採用されているAzure Linuxに対して、ハードニング(強化)済みのイミュータブル(不変)な構成を提供する機能だ。イミュータブル構成とは、OSの起動後にシステムファイルへの書き込みを原則禁止し、構成の意図しない変更や攻撃者による改ざんを防ぐアプローチを指す。 コンテナワークロードの本番環境では、ノードOSの完全性(インテグリティ)が侵害された場合、同一ノード上の全Podへの影響が懸念される。OS Guardはこのリスクを根本から低減する設計となっており、コンプライアンス要件が厳しい金融・医療・官公庁向けシステムへの採用が期待される。 Istio CNIでNET_ADMIN/NET_RAW権限が不要に 同時プレビュー入りしたIstio CNI(Container Network Interface)も見逃せない。 IstioはKubernetes上で広く使われているサービスメッシュだが、従来の構成では各Podにサイドカープロキシ(Envoy)を注入する初期化コンテナがNET_ADMINおよびNET_RAWという高権限のLinuxケイパビリティを必要としていた。これらは、ネットワークインターフェースやパケットを低レベルで操作できる強力な権限であり、セキュリティポリシー上の懸念点となるケースが多かった。 Istio CNIを使用すると、この初期化処理をKubernetesノード側のCNIプラグインに移譲できるため、PodレベルでNET_ADMINおよびNET_RAW権限を与える必要がなくなる。最小権限の原則(Principle of Least Privilege)に基づくゼロトラストアーキテクチャを実践したい組織にとって、大きな前進と言える。 Azure Linux 2.0のサポート終了にも注意 なお、AKSのリリース情報によると、Azure Linux 2.0のセキュリティアップデートは2025年11月30日をもって終了しており、2026年3月31日以降はノードイメージも削除予定だ。現在もAzure Linux 2.0を使用しているユーザーは、速やかにAzure Linux 3(osSku: AzureLinux3)へのアップグレードを検討する必要がある。 まとめ 機能 状態 主なメリット Azure Linux OS Guard パブリックプレビュー OSのイミュータブル化による改ざん防止 Istio CNI プレビュー NET_ADMIN/NET_RAW権限不要でセキュリティ向上 Azure Linux 2.0 サポート終了 Azure Linux 3への移行が必須 両機能はAKSのリリーストラッカーからリージョン別のロールアウト状況を確認できる。プレビュー機能のため本番環境への適用前には十分な検証を行うことが推奨される。 元記事: AKS: Azure Linux OS Guard now in Public Preview + Istio CNI Preview ...

March 24, 2026 · 1 min · 胡田昌彦

AIエージェントを2コマンドで本番環境へ——Azure Developer CLIの新機能「azd ai agent」でMicrosoft Foundryデプロイが激変

ローカルで動くエージェント、次のステップは? AIエージェントをローカルで作り上げた後、最大の壁となるのが本番環境へのデプロイだ。リソースのプロビジョニング、モデルのデプロイ、マネージドIDの設定、接続のワイヤリング——これらをすべて手作業でつなぎ合わせるのは、開発者にとって大きな負担だった。 Microsoftは、Azure Developer CLI(azd)に新しいワークフロー azd ai agent を追加。リポジトリから本番稼働中のエージェントへ、わずか2コマンドで到達できる開発体験を実現した。 デプロイまでのステップ 1. サンプルプロジェクトのクローン チュートリアルでは、Pythonベースのホテルコンシェルジュエージェントを例に使用する。VS Codeで開いてすぐに作業を開始できる。 元記事: From code to cloud: Deploy an AI agent to Microsoft Foundry in minutes with azd

March 23, 2026 · 1 min · 胡田昌彦

AKS、Ubuntu 24.04が正式対応&ブルーグリーンノードアップグレードがプレビュー公開

AKS、Ubuntu 24.04 GAとブルーグリーンアップグレードで運用の幅が広がる Microsoftは2026年3月、Azure Kubernetes Service(AKS)において複数の重要なアップデートを発表した。なかでも注目は、Ubuntu 24.04のGA(一般提供)昇格と、ブルーグリーン方式のノードプールアップグレードのパブリックプレビュー開始の2点だ。 Ubuntu 24.04がKubernetes v1.32以降の標準ノードOSに Ubuntu 24.04(Noble Numbat)が、Kubernetes v1.32以降を使用するAKSクラスターの標準ノードOSとして正式採用された。主な改善点は以下のとおり。 Containerd 2.0同梱: コンテナランタイムが最新世代に刷新され、起動速度と安定性が向上 起動時間の短縮: ノードの起動プロセスが最適化され、スケールアウト時のレイテンシが改善 カーネルハードニング強化: セキュリティ設定がデフォルトで強化されており、本番環境への適用が安心しやすくなった Ubuntu 20.04から22.04への移行でつまずいた経験を持つ組織にとっても、今回は標準パスとして提供されるため、スムーズな移行が期待できる。 ブルーグリーンアップグレードで無停止運用が現実的に これまでノードプールのアップグレード中は断続的なワークロード影響が生じることがあったが、ブルーグリーン方式の導入によって状況が大きく変わる。 ブルーグリーンアップグレードでは、既存のノードプール(Blue)を稼働させたまま、新しいバージョンのノードプール(Green)を並行して立ち上げ、切り替えを行う。移行が完了するまでBlue側はトラフィックを受け持ち続けるため、アップグレード中のダウンタイムをほぼゼロに抑えられる。 この手法は、金融・医療・ECなど可用性要件の高い本番環境での採用が特に期待される。現在はパブリックプレビュー段階であり、正式採用前に検証環境での試験を推奨する。 その他の主なアップデート Kubernetes新パッチ版の提供開始: v1.32.11、v1.33.7、v1.34.3が利用可能に KubernetesLTS版v1.28の非推奨化: サポート対象バージョンへの移行を早急に検討すること Azure Linux、GPU対応を拡充: NVIDIA A100・H100・H200 VMもサポート対象に OpenTelemetry(OTLP gRPC)のパブリックプレビュー: Azure Monitorとの連携がより柔軟に Ciliumをv1.18.6に更新: CVE-2025-64715およびCVE-2026-26963に対処 FlatcarコンテナLinuxの廃止予告: 2026年6月8日にプレビュー終了。移行計画が必要 まとめ AKSはUbuntu 24.04の正式採用でセキュリティと性能の基盤を強化しつつ、ブルーグリーンアップグレードで運用時の柔軟性を大幅に高めた。Kubernetes v1.28のEOLも控えており、クラスターのバージョン管理を早めに見直しておきたいタイミングだ。 元記事: Azure Kubernetes Service: Ubuntu 24.04 GA and Blue-Green Node Pool Upgrade Preview

March 23, 2026 · 1 min · 胡田昌彦

Microsoft Foundry「Priority Processing」がGA——プロビジョニング不要でSLA保証のAI推論を実現

Microsoft Foundry、遅延に敏感なAIワークロード向け「Priority Processing」を正式提供開始 Microsoftは、クラウドAI開発プラットフォーム「Microsoft Foundry(旧Azure AI Foundry)」において、Priority Processing(優先処理) 機能の一般提供(GA)を発表した。リアルタイム性が求められるAIアプリケーションのレスポンスタイムを大幅に改善する新機能だ。 プロビジョニング不要でSLA保証のパフォーマンス Priority Processingの最大の特徴は、プロビジョニング済みスループット(PTU)を事前確保しなくても、SLA(サービスレベルアグリーメント)に裏付けられたパフォーマンスが得られる点にある。 従来、AIモデルの安定した推論速度を確保するにはPTUの事前購入が必要だった。これはコストと計画の両面で企業にとって負担となっていた。Priority Processingはこの制約を取り除き、従量課金モデルのまま優先的なリソース割り当てを受けられる仕組みを提供する。 チャットbotからコパイロットまで——インタラクティブAI体験に最適 この機能が特に威力を発揮するのは、ユーザーがリアルタイムで操作するシナリオだ。具体的には以下のようなユースケースが想定される: カスタマーサポートチャットbot — 問い合わせへの即時応答 AIコーディングアシスタント — コード補完や提案のリアルタイム表示 コパイロット型アプリケーション — ドキュメント作成支援や検索拡張生成(RAG) 音声AIエージェント — 自然な会話フローを維持するための低レイテンシー処理 Adobe・Harveyなど先進企業がすでに導入 GA前のアーリーアクセス段階から、すでに複数の有力企業が本機能を採用している。クリエイティブソフトウェア大手のAdobeは、AIを活用したデザインツールの操作感改善に活用。リーガルテック企業のHarveyは、法律専門家向けAIアシスタントの応答性向上に役立てている。 両社とも「ユーザーが体感できるレベルでの応答速度改善が確認できた」とコメントしており、インタラクティブなAI体験の品質向上に直結する機能として評価されている。 日本企業への影響 国内でも、Azure OpenAI ServiceやMicrosoft Foundryを活用したAIソリューション導入が急速に広がっている。カスタマーサポートの自動化や社内向けコパイロット構築を進める企業にとって、追加のインフラ投資なしにエンドユーザー体験を向上できるPriority Processingは、ROI改善の観点からも注目に値する機能だ。 Microsoft Foundryのコンソールから即日有効化が可能で、既存のAzure OpenAI Serviceとの統合も容易とされている。 元記事: Announcing Priority Processing in Microsoft Foundry for Performance-Sensitive AI Workloads

March 23, 2026 · 1 min · 胡田昌彦

AI・テクノロジーの情報を発信しています

YouTube

AI・テクノロジーの最新トレンドを動画で配信中

note

技術コラム・深掘り記事を公開中