Azure Blob Storageのスマートティア正式リリース——データアクセス頻度に応じて自動でコスト最適化

Azureのストレージコストを「考えずに」最適化できる時代が来た。Microsoftは2026年4月、Azure Blob StorageおよびData Lake Storageのスマートティア(Smart Tier) を正式リリース(GA)した。2025年11月のIgniteで公開プレビューが始まってから約5ヶ月、早くも本番利用可能な状態に到達している。 ストレージコストは「気づいたら積み上がっている」コストの代表格だ。日本のクラウド利用現場でも、「とりあえずホット層に全部入れてある」「ライフサイクルポリシーを書いたけど誰もメンテしていない」という構成は珍しくない。スマートティアはそこへのひとつの回答になる。 スマートティアとは何か スマートティアは、オブジェクトごとの最終アクセス時刻を継続的に評価し、3つの層を自動で行き来させるフルマネージドの機能だ。 状態 移行先 条件 頻繁にアクセス ホット アクセスがあれば即座に昇格 30日間アクセスなし クール 自動降格 さらに60日間アクセスなし コールド 自動降格 重要なのは、データが再びアクセスされた瞬間にホットへ即昇格し、ティアリングサイクルがリセットされる点だ。GetBlobやPutBlobといった読み書き操作がトリガーとなる一方、GetBlobPropertiesのようなメタデータ操作はサイクルに影響しない——この設計の細かさが実務では効いてくる。 公開プレビュー段階のデータとして、スマートティアで管理された容量の50%以上が自動的にクール・コールド層へ移行したと報告されている。Azure Data Explorer(ADX)での採用事例でも、クエリのホットデータは即座にアクセス可能なまま、低頻度データはコスト効率の良い層へ自動移動するという動作が確認されている。 有効化の方法 設定はシンプルに設計されている。 新規ストレージアカウント作成時 ゾーン冗長構成(ZRS)のストレージアカウントを作成する際、デフォルトアクセス層として「スマート」を選択するだけ。Azure PortalとAPIの両方から設定可能だ。 既存アカウントへの適用 ゾーン冗長が有効になっている既存アカウントであれば、BlobアクセスTierを「default」から「smart」へ切り替えるだけで有効化できる。 現時点でほぼすべてのゾーン対応パブリッククラウドリージョンで利用可能だ。Azure JapanリージョンもZRSをサポートしているため、対象範囲に入る。 実務への影響 ライフサイクルポリシーとの使い分けを整理する スマートティアはライフサイクル管理ポリシーの「代替」ではなく「補完」として位置づけるのが現実的だ。「N日後に削除」「アーカイブへの移動」といった明示的なルールはライフサイクルポリシーが引き続き担う。「アクセス頻度に応じた動的なティア移動」はスマートティアに任せる——この役割分担を意識した設計が求められる。 ZRS(ゾーン冗長)が前提条件 スマートティアはゾーン冗長(ZRS)構成のストレージアカウントでのみ有効だ。LRS(ローカル冗長)のみのアカウントでは利用できない。既存アカウントへの適用を検討する場合は、まず冗長性設定の確認が必要になる。 トランザクションコストへの注意 ティア移行には読み出しコストが発生する。ホット→クールは書き込みコスト、クール→ホットは読み出しコストが加算される仕組みだ。アクセスが不規則なデータセットでは、自動昇降格が頻繁に起きてトランザクション費用がかさむ可能性がある。稼働後1〜2ヶ月はコストモニタリングを欠かさないようにしたい。 Data Lake Storageにも対応 Azure Data Lake Storage Gen2での利用も正式サポートされた。Databricks、Synapse Analytics、Azure Data Explorerなどのビッグデータワークロードでもスマートティアが機能するため、データ基盤全体でのコスト最適化が現実的になる。 筆者の見解 ストレージの自動最適化という機能単体で見れば、これは素直に良い仕事だと思う。「使った分だけ払う」というクラウドの本来の約束に、ようやくストレージが追いついてきた感覚だ。 ライフサイクルポリシーは「設計時に正しいルールを書く」ことを前提とした仕組みだったが、現実のデータアクセスパターンは設計者の想定を裏切り続ける。スマートティアはその前提を取り払い、「観察して動かす」アプローチに切り替えている。この発想の転換は、インフラ管理の方向性として正しい。 Azureが今後目指すべきは、こういった「仕組みを作れば自動で最適化が回り続ける」機能をどれだけ積み上げられるか、だと思っている。管理者がパラメータを手で調整し続けるのではなく、意図を定義したらあとはプラットフォームが動く——そういうプラットフォームとしての成熟度が問われている。 スマートティアはその方向の一歩として評価できる。まず検証環境で有効化し、実際のアクセスパターンとコスト変化を数週間観察するところから始めてほしい。「50%がクール層へ移行した」という数字が自分の環境でどう再現されるか、試してみる価値は十分ある。 出典: この記事は Optimize object storage costs automatically with smart tier—now generally available の内容をもとに、筆者の見解を加えて独自に執筆したものです。 ...

April 15, 2026 · 1 min · 胡田昌彦

エージェント型AIでアプリモダナイゼーションは本当に加速するのか——2026年初頭の現実と落とし穴

「AIで一発解決」という幻想から目を覚ます MicrosoftのAzureチームが、エージェント型AIを活用したアプリケーションモダナイゼーション(近代化)の実情をまとめたドキュメントを公開した。AI全盛の2026年初頭においても、「クリックひとつでモダナイゼーション完了」という夢には程遠い——そんな現実が、数百件にわたる実案件の経験から浮かび上がってくる。 この記事は、技術的な詳細よりも「なぜモダナイゼーションは難しいのか」という根本的な問いに正面から向き合う内容だ。AIツールに飛びつく前に読むべき、実践的な知見が詰まっている。 なぜレガシーシステムは「触りにくい」のか 多くのレガシーアプリケーションは共通の問題を抱えている。 ドキュメントの欠如: 重要なビジネスロジックが、密結合・ハードウェア依存・何年も放置されたモノリシックなコードの奥深くに埋もれている 依存関係の脆弱性: 誰も覚えていない暗黙の前提が随所に潜む 周辺システムとの深い結合: この結合こそが「ミッションクリティカル」たる所以であり、同時に変更を極めてリスキーにしている ここで重要な整理がある。「モダナイゼーション」と一言で言っても、実態は2種類に分かれる。 マイグレーション(移行) は、ビジネスロジックだけでなく実装・インターフェース・運用モデルも含めて可能な限り保存するアプローチだ。一方、メインフレームやOT機器のようにハードウェアに縛られたシステムは、リアーキテクチャ(再設計・再実装) が正解になる。どちらを選ぶかを最初に明確にしないと、プロジェクトは途中で方向を見失う。 エージェント型AIの実力と限界 エージェント型AIは確かにモダナイゼーションにかかる時間を短縮できる。コードの静的解析、依存関係の可視化、テストケースの自動生成——これらの作業でAIは明らかに価値を発揮する。 しかしドキュメントが警告するのは、ベンダーの「80%精度」という主張を鵜呑みにするなという点だ。「2026年初頭でもまだジェネレーティブAIの時代だ」と明言されている。自社のコードベース、自社のリスクプロファイルで検証するまでは、すべての主張はマーケティングとして扱え——この姿勢は、現場のエンジニアが持つべき基本的な態度だろう。 実務への影響——日本のIT現場が意識すべきこと 日本の大企業では、SAP・ERPの刷新や基幹系マイグレーションが続々と動き出している。そこにAIエージェントを組み込もうという動きも出始めている。しかしこのドキュメントが示す教訓は、日本のIT現場に直接刺さる。 「ツールより先に組織設計」 モダナイゼーションが技術問題ではなく組織問題である以上、ベンダーのデモに感動する前に「誰がビジネスロジックの最終判断をするのか」を決めることが先決だ。AIがコードを解析しても、「このロジックに業務上の意味があるか」を判断できるのは人間しかいない(今のところ)。 「AIエージェントに任せていい部分と任せてはいけない部分を分ける」 コード変換・テスト生成・依存関係の可視化はAIが得意な領域。しかしビジネスルールの解釈、リスク判断、ステークホルダー調整は人間の仕事だ。この境界を曖昧にするとプロジェクトは迷走する。 「Azureプラットフォームの上でAIを選ぶ自由を使う」 Azure AI Foundryを通じてさまざまなモデルを活用できる現在、基盤としてのAzureを活かしつつ、特定の作業に最適なAIを選べる環境が整いつつある。Microsoft基盤を捨てる必要はない——その上で動かすAIを最適化する発想が現実的だ。 筆者の見解 「AIを使えばモダナイゼーションが楽になる」という空気が業界全体に漂っているが、このドキュメントはその幻想に冷水を浴びせる内容だ。率直に言って、こういう「実際はこれだけ大変なんですよ」という記事をMicrosoftが出すこと自体は評価したい。 ただ、日本のIT現場においては、そもそも「モダナイゼーションに着手できる状態」にすら到達していない組織が多い。ドキュメントが欠如し、担当者が退職し、システムの全体像を知っている人間が誰もいない——そういう状態で「AIエージェントを活用しましょう」と言っても、AIは解析する材料すら与えられない。 本質的な問題は、AIの使い方ではなく、長年にわたって技術的負債の可視化を怠ってきたことだ。レガシーシステムの価値と複雑さを正直に計測し、リアーキテクチャかマイグレーションかを判断する。そこにこそAIエージェントの本来の価値がある。「変換」ではなく「把握」のためにAIを使う、という順序を間違えないようにしたい。 標準的な構成を選び、ベンダー推奨の理由を理解し、自分の環境で検証してから判断する——この「道のド真ん中を歩く」姿勢が、AIの時代においても変わらず重要だと改めて感じさせられる内容だった。 出典: この記事は The Realities of Application Modernization with Agentic AI (Early 2026) の内容をもとに、筆者の見解を加えて独自に執筆したものです。

April 15, 2026 · 1 min · 胡田昌彦

Azure SRE Agentに予測可能な新課金モデル──AIによる自律運用がいよいよ本番環境の現実解へ

AIがインフラの自律運用を担う時代が、コスト面でも現実的な選択肢になってきた。Microsoftは2026年4月15日、Azure SRE Agentの新しい課金モデルを正式に適用開始した。アクティブフロー100万トークンあたりのAAU(Azure Agent Unit)消費量をベースにした従量課金制で、企業がAIエージェントに自律的なサイト信頼性エンジニアリング(SRE)を任せる際のコスト予測が格段に立てやすくなった。 Azure SRE Agentとは何か Azure SRE Agentは、障害検知・根本原因分析・自動回復といったSREの定型業務をAIエージェントが自律的に実行するサービスだ。従来、オンコール担当者が深夜に対応していたような作業の一部を、人間の介入なしに処理できる。アラート→診断→修復のサイクルを24時間稼働のNHI(Non-Human Identity)として回し続けるイメージに近い。 新課金モデルの仕組み 今回の変更の核心は「予測可能性」だ。AAUという単位は、エージェントが処理する「アクティブフロー」のトークン量に比例して消費される。これにより: 使った分だけ払う明確な従量課金 トークン消費量からコストの事前試算が可能 月額固定モデルにありがちな「使い切れない枠」「超過請求」の両方を回避 企業のFinOps担当者にとって、AIエージェントのコストをAzure Cost Managementで他のリソースと同じ粒度で管理できる点は大きい。 実務への影響 IT運用チームへの直接的な影響として、まず考えるべきは「何を任せて何を人間が持つか」の線引きだ。Azure SRE Agentが得意とするのは、手順が明確に定義できる繰り返し対応タスク。具体的には以下のような領域が現実的な導入候補になる: 既知の障害パターンへの自動対応(再起動・スケールアウト・フェイルオーバー) 異常検知後の一次トリアージと担当者へのエスカレーション 定期的なヘルスチェックと結果のレポーティング AAUベースの課金であれば、まず低頻度の自動対応タスクから試験導入し、効果とコストを測定しながら段階的に範囲を広げる「道のド真ん中」アプローチが取りやすい。いきなり全自動化を狙わず、人間の承認ステップを残しながら徐々に委譲範囲を広げることで、リスクを最小化しながら実績を積める。 Microsoft Entra IDとの統合も見逃せない。SREエージェントはNHIとして動作するため、誰がどのリソースにアクセスできるかの管理はEntra IDで統一できる。Just-In-Timeアクセスや条件付きアクセスポリシーをそのままエージェントにも適用できる設計になっており、セキュリティポリシーの適用漏れが起きにくい。 筆者の見解 「仕組みを回すのはAI、作るのは人間」という流れが着実に加速している。Azure SRE Agentのような自律エージェントは、その象徴的な存在だ。今回の課金モデル変更は地味に見えて、実は本番導入における最後のハードルの一つを取り除く意味を持つ。コストが予測できなければ、企業のシステム部門は稟議を通せない。それが通るようになるということは、今後12〜18ヶ月で導入事例が急増することを意味する。 「でも結局、障害の80%はAIが処理して、残り20%の複雑な問題だけ人間が対応する」という世界が現実になりつつある。それは決して悪い話ではなく、SREエンジニアが本当に難しい問題だけに集中できる環境が整うということだ。NHIとしてのエージェント管理を今から設計しておくことが、来たるべき「人間が必要な局面だけに集中する運用モデル」への準備になる。 Azureのプラットフォームとしての強みは、こういうエージェント基盤の整備にある。ここは正直に評価できる部分だ。自律SREはまだ発展途上だが、コスト構造が整ったことで「試せる企業」の裾野が広がる。まずは小さく始めて、実際の効果を測定することをお勧めする。 出典: この記事は Announcing a flexible, predictable billing model for Azure SRE Agent の内容をもとに、筆者の見解を加えて独自に執筆したものです。

April 15, 2026 · 1 min · 胡田昌彦

Azure Functions MCP拡張に「Fluent API」登場——MCPアプリ開発が3ステップで完結する時代へ

AIエージェントとツールの連携標準として急速に普及しつつあるModel Context Protocol(MCP)。そのMCPツールに本格的なUI体験を持たせる「MCP Apps」が、Azure Functionsのエコシステムでさらに開発しやすくなった。Microsoftは.NET isolated worker向けのFluent APIを新たにプレビュー提供し、設定コードをわずか数行に圧縮することに成功している。 MCP Appsとは何か 通常のMCPツールはAIエージェントからテキストベースで呼び出される関数にすぎない。MCP Appsはそこから一歩踏み込み、ツールに以下の機能を持たせることができる。 HTMLビューのアタッチ: MCP クライアントがレンダリングするインタラクティブなUI 静的アセットの配信: HTML・CSS・JavaScript・画像をツールと一緒に提供 権限制御: クリップボードアクセスなど、ユーザー環境との安全なやり取り Content Security Policy(CSP)の定義: ロードや通信先を厳格に制限 要は「AIエージェントから呼び出せる、かつ人間向けのUIも持つWebアプリ」を1つのAzure Functionsで完結させる仕組みだ。 Fluent APIが解決する問題 MCPプロトコルの仕様上、ツールをUIビューに接続するには細かな調整が必要だった。ui:// URIのリソースエンドポイント、text/html;profile=mcp-app という特殊なMIMEタイプ、ツールとリソース双方への _meta.ui メタデータ注入——これらを手動で揃えるのは煩雑で、仕様の理解コストも高かった。 Fluent APIはこの複雑さを完全に隠蔽する。 AsMcpApp を呼び出すだけで、拡張機能が合成リソース関数の生成・MIMEタイプ設定・メタデータの自動注入をすべて肩代わりしてくれる。開発者はHTMLファイルのパスとセキュリティポリシーを宣言するだけでいい。 3ステップで動くサンプル 実際のコードは驚くほどシンプルだ。 Step 1: MCPツール関数を定義する 出典: この記事は MCP as Easy as 1-2-3: Introducing the Fluent API for MCP Apps の内容をもとに、筆者の見解を加えて独自に執筆したものです。

April 15, 2026 · 1 min · 胡田昌彦

Azure Stack HCI 23H2向け.NETセキュリティ更新KB5082418——RCE脆弱性修正とサポート終了の「二重プレッシャー」

2026年4月14日のパッチチューズデーに、Azure Stack HCI バージョン23H2向けの累積アップデート KB5082418 がリリースされた。対象は .NET Framework 3.5 および 4.8.1。今回の更新は「いつものセキュリティパッチ」で済ませるには少々重い内容で、特にオンプレミス寄りのハイブリッドクラウド環境を運用しているチームはすぐに確認が必要だ。 修正された脆弱性:6件、うち1件はRCE 今回のKBで対処された脆弱性は以下の6件。 CVE 種別 概要 CVE-2026-32178 リモートコード実行 (RCE) .NET Frameworkを経由してリモートからコードを実行される可能性 CVE-2026-32203 サービス拒否 (DoS) .NET Frameworkのサービス停止 CVE-2026-32226 サービス拒否 (DoS) 同上、別の攻撃ベクター CVE-2026-23666 サービス拒否 (DoS) 同上 CVE-2026-26171 セキュリティ機能のバイパス 保護機構を回避される可能性 CVE-2026-33116 情報漏洩 機密情報が外部に露出する可能性 注目すべきはCVE-2026-32178のRCE脆弱性だ。Azure Stack HCIはデータセンター内部のワークロードを扱うプラットフォームであり、「内部ネットワークだから大丈夫」という旧来の境界型セキュリティ思考は通用しない。ゼロトラストモデルで考えれば、内部ネットワーク上のノードも「信頼しない」が基本。RCE脆弱性を持つ.NETランタイムが稼働し続けるリスクは、攻撃者による横展開(ラテラルムーブメント)の起点になりかねない。 品質・信頼性の改善点も見逃せない セキュリティ修正に加え、以下の品質改善が含まれている。 ClickOnceのSHA384/SHA512対応 検証ロジックを追加し、より強固なハッシュアルゴリズムをサポート。古いSHA1依存の署名検証から段階的に移行できる環境が整う。 ARM64 CLRのクラッシュ修正 同一関数内でNullReferenceExceptionを生成してキャッチするコードパターンでARM64のCLRがクラッシュする問題を解消。ARM64 Azureノードを活用しているワークロードには直接影響する。 WCFのNamedPipeサービス修正 Windows 11またはWindows Server 2025上のWin32アプリコンテナ内でWCF NamedPipeサービスを実行する際の問題を修正。WCF(Windows Communication Foundation)はレガシーに見えるが、金融・製造系の基幹システムではまだ現役のことが多い。 実務への影響:適用手順と「もう一つの宿題」 適用の前提条件と注意事項 前提: .NET Framework 3.5 または 4.8.1 がインストール済みであること 再起動: 影響ファイルが使用中の場合は再起動が必要。適用前に.NETベースのアプリケーションを停止しておくことを推奨 配布チャネル: Windows Update、Windows Update for Business、WSUS、Microsoft Update Catalogすべてから入手可能。WSUSでは 製品: Azure Stack HCI version 23H2 / 分類: Security Updates に設定すること 見落としがちな「23H2サポート終了」問題 今回のパッチ適用と並行して、より大きな問題がある。Azure Stack HCI バージョン23H2は2026年4月でサポートが終了する。つまり今月のKB5082418が、この世代向けの最後のセキュリティ更新になる可能性が高い。 ...

April 15, 2026 · 1 min · 胡田昌彦

MCAライセンスでAzure移行の壁が下がる——2026年4月の注目Azureアップデートまとめ

2026年4月、Azureに実務直結の変更が集中した。なかでも注目はMicrosoft Customer Agreement(MCA)配下でのLicense Mobility解禁だ。Windows ServerとSQL Serverの既存ライセンスをAzureに持ち込める選択肢が広がり、オンプレミスからクラウドへの移行コストの見直しを迫られる企業も出てくるだろう。 MCAでのLicense Mobilityとは何か License Mobilityとは、Software Assurance(SA)付きのボリュームライセンスをAzureなどのホスティング環境で利用できる仕組みだ。従来はエンタープライズ契約(EA)ベースのSAが前提だったが、2026年4月1日からはMCAで購入したWindows ServerおよびSQL ServerのSAでも適用可能になった。 これが意味することは明確だ。EAという大型契約を結んでいない中堅・中小企業でも、既存のライセンス資産をAzure移行に活用できるようになる。Azure Hybrid Benefit(AHB)と組み合わせれば、Azure VM上でWindows ServerやSQL Serverをかなり安価に動かせるシナリオが現実的になる。 今月のその他の注目アップデート エフェメラルOSディスクキャッシュ(VM・VMSS) VMおよびVM Scale Setsで、OSディスク全体をローカルストレージにキャッシュする機能が追加された。リモートストレージへの依存が減りブート遅延が改善される一方、ノード障害時のリスク特性も変わる。フォールトドメイン戦略との整合性を確認した上で採用を判断したい。 Windows 365 Businessの価格が約20%引き下げ 2026年5月1日から、Windows 365 Businessのリスト価格が約20%値下げされる。さらに「オンデマンド起動」モードでは、サインアウト後1時間はCloud PCの電源が維持される仕組みになった。コスト面のハードルが下がり、導入検討フェーズに入れる企業は確実に増えるはずだ。 PostgreSQL向けPgBouncer 1.25.1がGA Azure Database for PostgreSQL Flexible ServerでPgBouncer 1.25.1が正式リリース。接続プーリングの安定性が向上し、急増するコネクション管理に悩む開発チームには直接的な恩恵がある。 App ServiceでPHP 8.5対応、Linuxデプロイも改善 Linux向けApp ServiceでPHP 8.5が利用可能になった。またLinuxアプリのコードデプロイフローも簡素化され、CI/CDパイプラインの設定工数が下がることが期待できる。 そのほかのアップデート AKSのオーバーレイCIDR拡張とHTTPプロキシ無効化オプション Azure MigrateでAzure Filesアセスメントが利用可能に Premium SSDv2の展開リージョン拡大 Azure Red Hat OpenShiftのリージョン拡大とNVIDIA GPUコンテナ対応強化 実務への影響 ライセンス担当者は今すぐ棚卸しを: MCAでSAを保有していれば、License Mobility申請の準備を始められる。EAへの切り替えを検討していた企業は、このMCA対応を確認してから判断しても遅くない。 AHBとの組み合わせが鍵: License MobilityとAzure Hybrid Benefitを組み合わせると、Azure VM上でのWindowsおよびSQL Serverのコストを大幅に抑えられる。コスト試算はAzure Pricing Calculatorで今すぐ確認できる。 ...

April 14, 2026 · 1 min · 胡田昌彦

Azure VM/VMSSのエフェメラルOSディスクが「フルキャッシュ」対応でパブリックプレビュー——ミリ秒単位の低レイテンシとリモートストレージ耐障害性を両立

Azure Virtual Machine(VM)およびVM Scale Sets(VMSS)向けに、Ephemeral OS Disk with Full Cachingがパブリックプレビューとして公開された。一見地味なアップデートに見えるが、HPC(高性能計算)やゲームサーバー、大規模なAI推論ワークロードを扱うエンジニアにとっては見逃せない進化だ。 Ephemeral OS Diskとは何か、なぜ今「フルキャッシュ」が重要なのか Ephemeral OS Diskは、VMのOSディスクをリモートの永続ストレージ(Azure Managed Disk)ではなく、VMホストのローカルストレージ上に展開する機能だ。VMが削除されるとディスクの内容も消える「一時的」な性質を持つが、その代わりにストレージI/Oがローカルで完結するため、マネージドディスクへのネットワーク越しのアクセスが不要になる。 これまでのEphemeral OS Diskには「Disk Cache Placement」と「Temp Disk Placement」という2つの配置モードがあり、VMのキャッシュ領域またはTemp Diskを利用していた。今回パブリックプレビューとなったFull Cachingモードでは、OSディスク全体をVMのローカルキャッシュ領域に格納する。 具体的なメリットは2点に集約される。 1. ミリ秒単位の低レイテンシ リモートストレージへのアクセスには、ネットワークレイテンシが必ず発生する。マネージドディスクの帯域幅やIOPSはSKUによって上限が決まっており、ストレージ帯域がボトルネックになるシナリオは珍しくない。Full CachingによってOSディスクのI/OがVM内のキャッシュで完結すれば、ストレージレイテンシはリモートディスク比で大幅に短縮される。ブート時間の短縮はもちろん、OSカーネルのページングやシステムファイルへの頻繁なアクセスが速くなる恩恵は、高負荷環境ほど顕著に出る。 2. リモートストレージ障害時の耐障害性向上 こちらはあまり語られないが、実運用では重要なポイントだ。Azureのマネージドディスクはリージョン内のストレージクラスターに依存しているため、そのクラスターに問題が発生すると、VMが起動していてもOSディスクへのI/Oが詰まりパフォーマンス劣化や応答不能に陥ることがある。Ephemeral OS Disk(Full Caching)であれば、リモートストレージクラスターに障害が発生してもOSディスクへのアクセスは継続できる。VMSSで大量のインスタンスを動かしているサービスにとって、これは可用性の観点で大きな差になり得る。 対象SKUと制約 Ephemeral OS Diskは特定のVMシリーズにのみ対応しており、Full Cachingを利用するにはVMのキャッシュ領域がOSディスクサイズ以上であることが条件になる。一般的にキャッシュ領域が大きいのはメモリ最適化・コンピューティング最適化系のSKUだ。VMSSのイメージ更新(ローリングアップグレード)との組み合わせも、Ephemeral OS DiskはVM再展開のたびに初期化されるため、ステートレスなワークロードと相性がよい。 データの永続化が必要なワークロードには適さないという制約は変わらないが、コンテナホスト・AIモデル推論・Web/APIサーバーのような「OSイメージさえあればロールバックできる」構成では積極的に採用を検討できる。 実務への影響——日本のエンジニア・IT管理者にとっての意味 大規模VMSSを運用しているチームへ: スケールアウト時のインスタンス起動速度が改善される可能性がある。特にゲームサーバーやリアルタイム処理系で急激なトラフィック増加に対応する際、ブート時間の短縮は体感できる差になる。 HPC・AI推論ワークロードを扱うチームへ: GPUインスタンスのようにOS領域のストレージI/Oが相対的に軽い構成でも、マネージドディスクのスロットリングリスクを排除できる点は価値がある。ジョブのプリエンプト・再起動が頻繁なHPC環境では特に恩恵を受けやすい。 実際の移行手順として押さえておきたい点: az vm create の --ephemeral-os-disk-placement パラメーターに CacheDisk(Full Caching)を指定 VMの OSディスクサイズ ≤ VMキャッシュサイズであることを事前確認 VMSSのアップグレードポリシーとEphemeral OS Diskの組み合わせ動作をステージング環境で必ず検証 ステートフルなデータはData Diskまたは外部ストレージに分離する設計を徹底する 筆者の見解 このアップデートはAzureのコンピューティング基盤が着実に磨かれている証左であり、素直に評価したい。クラウドプラットフォームとしての信頼性を積み上げる地道な改善は、Azureが長期的な競争力を維持する上で欠かせない仕事だ。 ...

April 14, 2026 · 1 min · 胡田昌彦

Azure DevOps 2026年3月アップデート:エンタープライズガバナンスとSDLC可視化が大幅強化

エンタープライズ開発現場において、「速く作る」と「安全に管理する」は長らく相反する課題として扱われてきた。Azure DevOpsの2026年3月アップデートは、この二律背反に正面から答えようとするリリースだ。ガバナンス・セキュリティ・SDLC(ソフトウェア開発ライフサイクル)の可視化という三本柱で、開発組織の成熟度を引き上げる実践的な改善が揃った。 Microsoft Entra IDとの統合強化——DevSecOpsの土台を固める 今回のアップデートで最も注目すべきは、Microsoft Entra IDおよび条件付きアクセス(Conditional Access)ポリシーとの統合強化だ。 具体的には、エンジニアリングアクセス全体でのMFA(多要素認証)とデバイスコンプライアンスの強制適用が可能になる。特権アカウントに紐づく監査リスクを低減し、DevOpsのアクセス管理を企業全体のアイデンティティ戦略と整合させられる。 運用面でも改善は大きい。Entraグループを通じたロールベースのオンボーディングが整備され、手動でのアクセス権付与作業が不要になる。プロジェクトや環境をまたいだ一貫性のある管理が実現する。 オブジェクトレベル権限——最小権限モデルの実装を現実的に パイプライン・リポジトリ・サービス接続といったSDLCアセットに対して、粒度の細かいアクセス制御が可能になった。これは「最小権限の原則(Least Privilege)」をDevOps環境で実際に適用するための重要な一歩だ。 本番環境は厳格にロックしながらも、開発環境では柔軟性を確保するという使い分けができる。インシデント発生時のアカウンタビリティも強化され、「誰が何を変更したか」のトレーサビリティが向上する。 SDLCレポーティング——リリース判断を数字で裏付ける エンジニアリングリーダーやCIOにとって、もう一つの核心が開発ライフサイクルの可視化だ。コンプライアンス管理とリリース準備状態の検証を、測定可能な形で把握できるようになる。「なんとなく大丈夫」ではなく、データに基づいたリリース判断が実現する。 実務への影響——日本のIT現場で今すぐ動けること Azure DevOps管理者向け: Entraグループとの連携を見直し、手動プロビジョニングが残っているプロジェクトを洗い出す 条件付きアクセスポリシーをDevOpsアクセスにも適用されているか確認する(見落としがちなポイント) 本番パイプラインのサービス接続権限を棚卸しし、オブジェクトレベル権限で再整理する エンジニアリングリーダー向け: SDLCレポーティング機能を活用して、リリース判断の根拠を可視化・記録する仕組みを作る 監査対応コスト削減の観点で、今回の機能強化をマネジメント層への説明材料として使える 日本特有の文脈として: 多くの大手エンタープライズでは、オンプレミス時代のアクセス管理モデルとクラウド移行後の仕組みが混在している状況が続いている。今回のEntra ID統合強化は、その「混在状態」を整理する絶好の機会だ。 筆者の見解 Azure DevOpsはMicrosoftのエンタープライズ戦略の中でも、地味だが実力の高いプロダクトだと思っている。今回のアップデートはその路線を着実に前進させるもので、素直に評価できる内容だ。 特にEntra IDを軸としたアイデンティティ管理の強化は、長期的に正しい方向性だと確信している。エージェントやAPIが乱立するこれからの時代、「誰が・何に・どうアクセスしたか」を一元管理できる基盤は、単なる利便性ではなくセキュリティアーキテクチャの根幹になる。その管制塔としてEntra IDを位置づけているMicrosoftの判断は、方向感として間違っていない。 ただ、正直に言えば、こういった地に足のついたガバナンス強化こそ、もっと前面に出して訴求してほしいと感じる。堅実に積み上げてきた実力があるのだから、それを地道に届け続けることが最も誠実な戦略のはずだ。日本のIT現場では、こうした「測定可能なコンプライアンス」への需要は確実に高まっている。Azure DevOpsが持つ強みは、まだ十分に活かされていない。 出典: この記事は Azure DevOps March 2026 Update: Enterprise Governance, Security, and SDLC Reporting の内容をもとに、筆者の見解を加えて独自に執筆したものです。

April 13, 2026 · 1 min · 胡田昌彦

Azure OpenAI「Spillover」がGA——急増トラフィックを自動振り分け、本番運用の安定性が一段上がる

Azure OpenAIを本番環境に組み込んでいるエンジニアにとって、待ち望んでいた機能がついに正式リリース(GA)された。Spillover——プロビジョニングデプロイメント(PTU: Provisioned Throughput Units)へのトラフィックが急増した際、あふれたリクエストを指定のスタンダードデプロイメントへ自動ルーティングする仕組みだ。この一機能が、Azure OpenAI本番運用の設計を根本から変える可能性がある。 Spilloverとは何か Azure OpenAIのデプロイメントは大きく2種類ある。プロビジョニングデプロイメント(PTU)は、一定のスループットを予約購入することで低レイテンシ・安定したパフォーマンスを得る方式。一方のスタンダードデプロイメントは従量課金で、柔軟だがコストが読みにくい。 従来、PTUのキャパシティを超えたリクエストは単純に失敗(429エラー)するか、アプリケーション側でリトライロジックを実装する必要があった。Spilloverはこの問題を解決する。PTUが満杯になった瞬間、超過分を自動的にスタンダードデプロイメントへ流す。アプリケーション側の変更は最小限で済み、ユーザーへのサービス断を防げる。 なぜこれが重要か 日本のエンタープライズ現場では、Azure OpenAIの導入フェーズが「PoC・小規模パイロット」から「全社展開・基幹業務組み込み」へと移行しつつある。この段階で最大の壁になるのがトラフィックの予測困難性だ。 会議が集中する月曜朝、キャンペーン展開直後のアクセス集中、外部障害によるリクエスト再試行の嵐——こうした「想定外のバースト」に対してPTU単体では対応できなかった。Spilloverにより、「平常時はPTUで安定・低コスト、バースト時はスタンダードで吸収」という設計が公式にサポートされた意義は大きい。 SLAを伴う本番サービスとして提供するためには、このような自動フォールバック機構は事実上の必須要件だ。GAになったことで、エンタープライズの調達・契約判断にも組み込みやすくなる。 実務での活用ポイント 1. PTUサイジングの見直し 従来は「最大負荷 × 安全係数」でPTUを過剰購入しがちだった。Spilloverがあれば「平均負荷 + 少量のバッファ」でPTUを設計し、ピーク超過分はスタンダードで賄う戦略が取れる。コスト最適化に直結する。 2. コスト上限の設計 Spilloverを有効にするとバースト時にスタンダードの従量課金が発生する。Cost Management Alertと組み合わせて上限を設定し、意図しない課金爆発を防ぐことが重要だ。 3. リージョン間の組み合わせ スタンダードデプロイメントは複数リージョンに配置できる。PTUが東日本リージョン中心であれば、Spillover先を西日本や他リージョンに設定することで地理的冗長性も兼ねられる。 4. 監視メトリクスの追加 Spilloverが実際に発動している頻度をAzure Monitorで可視化する。頻発しているならPTUの増強、ほぼゼロなら過剰サイジングの見直しシグナルになる。 同時期に注目すべきアップデート SpilloverのGA以外にも、直近のAzure OpenAIアップデートには実務直結のものが揃っている。 gpt-4o-mini-transcribe(2025-12-15): 英語ベンチマークで旧モデル比50%のWER(単語誤り率)改善。日本語・インド系言語の多言語対応強化、無音時のハルシネーションを最大4分の1に削減。コールセンターやリアルタイム議事録用途で即実用レベルに達した gpt-4o-mini-tts(2025-12-15): 多言語音声合成の自然さが向上。日本語でのテキスト読み上げ品質が気になっていた開発者は再評価の価値あり gpt-realtime-1.5 / gpt-audio-1.5: 音声ファーストアプリ向けに命令追従・多言語・ツール呼び出しが強化され、低レイテンシはそのまま維持 筆者の見解 SpilloverのGAは、地味ながら本質的に重要な一歩だと思う。 Azure OpenAIをプロダクションに持ち込む際の最大の課題は「性能」よりも「運用の予測可能性」だ。どれだけモデルが賢くても、本番トラフィックで落ちるなら使えない。Microsoftがこの領域を着実に埋めてきているのは評価に値する。 Azureのプラットフォームとしての強みは、こういったエンタープライズ運用を支える周辺機能の充実にある。エージェントの管制塔としてのEntra ID、コスト管理、ネットワーク制御——こうした基盤がしっかりしているからこそ、その上で動かすAIの選択肢を広げられる。Spilloverもその文脈で捉えると、単なる技術的改善以上の意味を持つ。 音声系モデル(Transcribe・TTS・Realtime)の進化も見逃せない。日本のIT現場ではまだ「テキスト生成」のユースケースが主流だが、コールセンター自動化・会議録・音声インターフェースは次の大波になる。今のうちにこのスタックを試しておく価値は十分ある。 正面から勝負できる基盤を持つプラットフォームだからこそ、周辺機能のGAがひとつ増えるたびに本番適用のハードルが着実に下がっていく。その積み重ねを、現場のエンジニアにはぜひ見逃してほしくない。 出典: この記事は Azure OpenAI Spillover Now Generally Available の内容をもとに、筆者の見解を加えて独自に執筆したものです。

April 13, 2026 · 1 min · 胡田昌彦

Azure DevOps、期限切れPATの「延命」をついに封じる——セキュリティギャップ解消とMCPサーバーパブリックプレビューも

Azure DevOpsのSprint 271アップデートが公開され、セキュリティ面で見過ごせない変更が加わった。期限切れのPAT(Personal Access Token)をUI・APIの双方から一切変更できなくなったのだ。地味に見えて、実務への影響は小さくない。 「期限切れなのに生きていた」問題、ついに修正 これまでAzure DevOpsでは、PATの有効期限が切れた後でも、特定の条件下で延長や変更が可能な状態が続いていた。「発見されたギャップ」とMicrosoftは表現しているが、要するに設計上の抜け穴だ。 今回のSprint 271からは、期限切れPATはUIからもAPIからも変更できなくなった。対処は明快——新しいトークンを発行するか、既存トークンを再生成するかのどちらかだ。 この変更が意味することは3点に集約される。 真の有効期限強制: トークンは設定した期日に確実に失効する 漏洩・放置トークンのリスク低減: 誰かが流出させたトークンが静かに延命し続けるシナリオを防ぐ 監査・コンプライアンスの整合性: 「このトークンはXX日まで有効のはず」という前提が崩れなくなる 日本のIT現場への影響 日本のエンタープライズ環境では、CI/CDパイプラインやサービス連携にPATを長期間使い回しているケースがまだ少なくない。「とりあえず1年で発行してあとは放置」という運用は珍しくなく、期限が切れそうになったらUIで延長——という習慣が染み付いているチームもある。 今回の変更で、そのフローは完全に機能しなくなった。早めに以下の対応を検討したい。 1. PAT棚卸しの実施 現在使用中のPATの一覧を確認し、有効期限と用途を整理する。Azure DevOpsの組織設定から「Personal access tokens」の一覧が確認できる。 2. 短命トークンへの移行 Microsoftも推奨しているとおり、PATは短期間(30〜90日)で発行し直す運用が望ましい。長期トークンは攻撃対象になりやすい。 3. Microsoft Entra IDベースの認証への移行検討 サービスプリンシパルやマネージドIDを活用したEntraベースの認証に移行できるワークロードは、積極的に移行を進めるべきだ。人間が管理するシークレットを減らすほど、リスクも管理コストも下がる。 合わせて注目:リモートMCPサーバーのパブリックプレビュー セキュリティ修正と同時に、Azure DevOpsのリモートMCPサーバーがパブリックプレビューに入った。 https://mcp.dev.azure.com/{organization} というエンドポイントをMCPクライアントに設定するだけで、ローカルサーバーを立てることなくAzure DevOpsとのAI統合が可能になる。Visual StudioおよびVS Codeがすでに対応しており、Microsoft FoundryやCopilot Studioへの対応も近く予定されているという。 AIエージェントがAzure DevOpsのワークアイテムやリポジトリを直接操作できるようになる流れは、開発ワークフロー自動化の文脈で注目しておく価値がある。 筆者の見解 PATのセキュリティギャップ修正は、やって当然のことをやった——という評価が正直なところだ。しかし「やって当然のことを確実にやる」のが、実は一番難しく、かつ最も重要でもある。Just-In-Time原則やゼロトラストの観点からすれば、「期限切れトークンが変更可能」という状態はそもそも存在してはならなかった。今回の修正で、トークンのライフサイクル管理がようやく設計意図どおりに動くようになった。 一方で、現場への影響は軽視できない。「今まで通りにできなくなった」ことで、パイプラインが突然壊れるチームも出てくるだろう。変更前に通知があれば、と思わないでもないが——問題は、そもそも期限切れトークンを延命させる運用自体がリスクであって、今こそその設計を見直す機会と捉えるべきだ。 リモートMCPサーバーについては、今後の広がり方を注視したい。Azure DevOpsを中心に据えた開発ワークフローにAIエージェントが組み込まれていく流れは、Microsoft Foundryとの連携も含めて、長期的に面白い方向に進む可能性がある。Azure DevOpsは地味だが堅実なプラットフォームだ。ここが踏み台になって開発自動化が進むなら、それはエンジニアにとって悪くない未来だと思っている。 出典: この記事は Azure DevOps Sprint 271 Update: Expired PATs Can No Longer Be Modified の内容をもとに、筆者の見解を加えて独自に執筆したものです。

April 13, 2026 · 1 min · 胡田昌彦

AIエージェントがAKSの専門家に——Agent Skills for AKSが切り開く新しいクラウド運用の形

Kubernetesの運用は、知識の陳腐化との戦いでもある。クラスター構成のベストプラクティス、トラブルシューティングの手順、セキュリティ設定の勘所——これらは半年もすれば変化し、AIモデルの学習データではすぐに古くなる。その課題に正面から切り込む仕組みが、Agent Skills for AKSだ。 Agent Skillsとは何か Agent Skills(エージェントスキル)は、AIエージェントにドメイン固有の専門知識を追加するオープンスタンダードだ。一度インストールすれば、対応する任意のAIエージェントが自動的に認識し、関連するプロンプトに応じて適切なスキルをロードする。 ポイントはトークン効率にある。AKSとは無関係な質問をしている間、スキルは静かに待機してコンテキストウィンドウを無駄にしない。AKS関連の質問が来た瞬間にだけ、必要なガイダンスとコマンドが展開される仕組みだ。 今回のリリースでは以下の2種類が提供されている: AKS Best Practices スキル:ネットワーキング、アップグレード戦略、セキュリティ、信頼性、スケーリングにわたるクラスター構成の推奨事項 AKS Troubleshooting サブスキル:ノードヘルス障害やネットワーク問題など、AKSエンジニアが実際のインシデント対応で使うCLIコマンドと診断シーケンス GitHub Copilot for Azure拡張機能経由でVS Code・Visual Studio・Copilot CLI・Claudeなど主要な開発環境から利用できる。 実務での活用ポイント Day-0決断の質を上げる AKSクラスターは最初の設計判断が後に大きく響く。ネットワークプラグインの選択(Azure CNI vs kubenet)、ノードプールの分割設計、Private Clusterの採否——これらをAIエージェントに問い合わせることで、AKSエンジニアチームが現在推奨している判断基準をリアルタイムで引き出せる。「昔のブログ記事を信じてはまった」という典型的な失敗を減らせる。 トラブルシューティングの標準化 AKSのノード障害やネットワーク問題は、原因追跡のコマンド体系を知っているかどうかで解決時間が大きく変わる。スキルに含まれる診断シーケンスは、AKSエンジニアが顧客インシデント対応で実際に使っているものだ。チームの経験値に依存しない標準化された初動対応が実現する。 権限ゲートによる安全なエージェント操作 スキルはコマンド実行時に現在の認証情報で許可されている操作しか提案・実行しない。エージェントが勝手に本番クラスターを変更するリスクを設計レベルで排除している点は、企業利用で重要な安心要素だ。 なぜこれが重要か Kubernetes運用の最大の課題のひとつは、「正しい知識をいつでも引き出せる人材がいない」問題だ。日本のIT現場では特に、AKSの深い知識を持つエンジニアは希少で、インシデント時の初動に時間がかかるケースが多い。 Agent Skillsは、その知識ギャップをAIエージェントで埋める現実的なアプローチだ。しかも、モデルに焼き付けるのではなく、オープンスタンダードとして外付けする設計なので、AKS側がガイダンスを更新すれば即座に反映される。学習データの鮮度問題を構造的に解決している。 AKS MCP(Model Context Protocol)サーバーと組み合わせることで、エージェントが実際のクラスターに接続して診断・操作まで行う統合フローも実現できる。「チャットで相談して手動で実行する」から「エージェントが診断して必要な操作を提案・実行する」への移行が、Kubernetes運用の現場でも現実になってきた。 筆者の見解 AIエージェントに「スキル」を外付けする設計は、方向性として正しいと思う。モデルの学習データに頼ると必ず陳腐化するし、プロンプトに詰め込むと今度はコスト問題が出る。必要なときだけロードするトークン効率重視のアーキテクチャは、エンタープライズ利用において現実的な解だ。 Azureプラットフォームの強みは、こういった「AIを安全に・実用的に使うための仕組み」を積み重ねられる点にある。個々のモデル性能の議論とは別の軸で、運用基盤としての信頼性を積み上げている。Kubernetesのような複雑なシステムの運用をAIエージェントが支援できるのなら、「AIに仕事を任せられる範囲」は着実に広がっている。 ただし、期待するのは「AIが正解を出してくれる」ではなく「AIが選択肢と根拠を示してくれる」という使い方だ。スキルが提供するのはAKSチームの推奨であり、あくまで判断の起点だ。最終的なアーキテクチャ判断はエンジニアが行う、その補助としてのエージェントスキル——この役割設計は健全だと思う。 運用の仕組みを作れる人間が少数いて、その仕組みをAIが回す、という形が各分野で整いつつある。Kubernetes運用もその流れに乗り始めた。 出典: この記事は Turn your agents into AKS experts: Agent Skills for AKS の内容をもとに、筆者の見解を加えて独自に執筆したものです。

April 13, 2026 · 1 min · 胡田昌彦

Azure FunctionsのMCPサーバーをFoundryエージェントに接続する——カスタムツール統合の実践ガイド

Microsoft Foundryとモデルコンテキストプロトコル(MCP)の統合が、着実に実用フェーズへ進んでいる。Azure FunctionsでホストしたMCPサーバーをFoundryエージェントのカスタムツールとして接続する手順が、Azure SDK Blogで公開された。単なる実装メモにとどまらず、エンタープライズ規模での「AIエージェントへのツール提供」というアーキテクチャの方向性を示す内容だ。 MCPサーバーをFoundryエージェントに繋ぐ意義 MCPはVS CodeやCursorなどの開発ツールで既に広く使われているプロトコルだ。自社のデータベースクエリやAPI呼び出し、業務ロジックをMCPツールとして実装している組織は少なくない。 ここで注目すべきは「そのMCPサーバーをそのままFoundryエージェントに繋げる」という点だ。開発者向けのツールをエンタープライズ向けのAIエージェントにも提供できる。ツールの実装は1回で済み、消費するクライアント側を増やすだけでよい。 Azure Functionsをホスティング基盤に選ぶ理由も明確だ。サーバーレス課金、スケーラブルなインフラ、そして後述する認証機構の充実——この3点が揃っている。 接続の全体像 接続手順は大きく4ステップだ。 ビルトインMCP認証の有効化: Azure Functionsのデフォルト(キーベース認証)を無効化し、MCP専用の認証に切り替える。サンプルをそのまま使った場合は設定済み。 エンドポイントURLの確認: MCP拡張ベースのサーバーであれば https://<FUNCTION_APP_NAME>.azurewebsites.net/runtime/webhooks/mcp が対象。 認証方式に応じた資格情報を取得: 後述の4方式から選択。 Foundryポータルでエージェントにツールを追加: エンドポイントと資格情報を入力するだけ。 認証方式の選び方 本稿の実務的な核心はここだ。4つの認証方式が提供されており、フェーズに応じて使い分けることができる。 キーベース認証(デフォルト) HTTPリクエストヘッダーに共有のfunctionアクセスキーを含める方式。開発・検証フェーズで手っ取り早く試したいときに向く。ただし本番環境での使用は避けるべきだ。 Microsoft Entra認証 エージェント自身のマネージドID(エージェントID)またはFoundryプロジェクト共有のマネージドIDを使う方式。本番環境ではエージェントIDを使い、プロジェクト共有IDは開発に留める。エンタープライズ環境での標準的な選択肢になる。 OAuthアイデンティティパススルー ユーザーがサインインして認可し、そのトークンをエージェントが使って認証する方式。ユーザーごとのコンテキストが必要な業務シナリオ——たとえばユーザー別のデータアクセス権を持つAPIを呼び出す場合——で必須になる。設定手順は増えるが、本番の多くのケースでこれが正解だ。 未認証アクセス パブリックな情報にのみアクセスするMCPサーバーや、開発環境での動作確認に限定して使う。 実務への影響 日本のエンタープライズ環境で考えると、この構成が刺さる場面はいくつかある。 既存のMCPツール資産の活用: 社内ポータルやERPへのAPIアクセスをMCPツールとして実装している組織は、そのままFoundryエージェントに接続できる。「AIチャットボットのためだけに別のAPI連携を作り直す」という二重投資を避けられる。 認証の段階的強化: 開発初期はキーベース→ステージングはマネージドID→本番はOAuthパススルー、というように段階的に強化できる設計は、実際の開発サイクルに合っている。 Microsoft Entra IDとの自然な統合: エージェントIDやマネージドIDをベースにした認証は、既存のEntra ID管理に乗っかれる。新たなID管理体制を構築する必要がなく、既存のロールベースアクセス制御(RBAC)設計を使い回せる。 Azure Functionsの従量課金モデルも重要だ。MCPサーバーの呼び出しは間欠的になることが多く、常時起動のコンテナより大幅にコストを下げられる可能性がある。 筆者の見解 MCPをAzure Functionsでホストし、Foundryエージェントに繋ぐ——この構成は「AIエージェントの実装において、ツール提供側と消費側を分離する」という設計思想を体現している。 VS CodeやCursorで使っているMCPサーバーを、そのままエンタープライズ向けのFoundryエージェントにも流用できるのは、開発者にとって本質的な効率化だ。「AIの機能を足す」のではなく「既存の業務ロジックをAIが使えるようにする」という発想の転換でもある。 プラットフォームとしてのAzureとFoundryの組み合わせは、こういったエンタープライズ統合において強みを発揮する。特に認証周りをMicrosoft Entra IDに統一できる点は、ゼロトラストアーキテクチャを推進する組織にとって見逃せない。AIエージェントもID管理の対象として既存の統制フレームワークに組み込める。 MCPというプロトコル自体はオープンな仕様だ。Foundryに乗ることで、このエコシステムに広く投資できる。特定のクライアント環境に縛られずにツールを使い回せる設計は、中長期的なメンテナンスコストを下げる。 エンタープライズAIエージェントの実装を検討しているチームには、まずAzure Functionsでシンプルなカスタムツールを1つ作り、Foundryエージェントに繋いで動かしてみることを勧めたい。認証はキーベースから始めて、本番要件に合わせてEntra IDに移行すればいい。ゴールから逆算するより、動く状態を素早く作って反復するほうが、エージェント実装の感触をつかむには早い。 出典: この記事は Give your Foundry Agent Custom Tools with MCP Servers on Azure Functions の内容をもとに、筆者の見解を加えて独自に執筆したものです。 ...

April 12, 2026 · 1 min · 胡田昌彦

Grok 4.20がMicrosoft Foundryに登場——Azure基盤で使えるモデルの選択肢がまた広がった

xAI(イーロン・マスク率いるAI企業)が開発するGrok 4.20が、Microsoft Foundryのモデルカタログにサードパーティモデルとして追加された。Azureのエンタープライズ環境に手を入れることなく、同じインフラ・同じIDプラットフォーム上から直接Grokを呼び出せるようになった。 Microsoft Foundryとは何か Microsoft Foundry(旧Azure AI Foundry)は、Microsoftが提供するAIアプリケーション開発・運用の統合プラットフォームだ。OpenAIのGPTシリーズをはじめ、MetaのLlamaシリーズ、MistralAIのモデルなど、複数のサードパーティモデルをAzure上でホストし、エンタープライズグレードのセキュリティとコンプライアンスを維持しながら利用できる仕組みを提供している。 今回のGrok 4.20の追加は、このモデルカタログのラインナップがさらに充実した形だ。Azureのネットワーク境界内で完結するため、データが外部の独自エンドポイントに流れるリスクも抑えられる。 Grok 4.20の特徴 Grok 4.20はxAIが提供する大規模言語モデルで、リアルタイム情報へのアクセスとX(旧Twitter)のデータを活用する点が特徴的とされてきた。今回のFoundry統合版では、Azureのモデルカタログ経由での提供となるため、エンタープライズ向けの設定・制限が適用されたかたちでの利用が想定される。 APIインターフェースは他のFoundryモデルと統一されており、既存のAzure OpenAI SDK資産を活用しながらモデルを切り替えやすい構造になっている。 実務への影響——日本のエンジニア・IT管理者にとっての意味 ① Entra IDとの統合でIDガバナンスが一本化できる Foundry経由でGrokを利用することで、Microsoft Entra IDによるアクセス制御・条件付きアクセス・監査ログが自動的に適用される。「このモデルはどのIDが使えるか」「どのアプリケーションからのリクエストか」を統一的に管理できる点は、セキュリティ要件の厳しい日本の大手企業・金融・官公庁系SIにとって見逃せないメリットだ。 ② マルチモデル戦略が現実的な選択肢になる ひとつのユースケースに対してひとつのモデルを使い続けるのではなく、タスクの性質に応じてモデルを切り替える「マルチモデル戦略」を採る企業が増えつつある。コード生成・要約・リアルタイム情報が必要なタスクなど、特性に応じて最適なモデルを選べる環境が整いつつある。 ③ 既存のInfraとの親和性を保ちながら最新モデルにアクセスできる Azure Virtual NetworkやPrivate Linkとの組み合わせも可能で、社内システムとの連携時にも外部公開エンドポイントを経由しない設計が維持できる。セキュリティ担当者が承認しやすい構成が取れることは、実際の導入稟議を通す上で大きな差になる。 筆者の見解 Microsoft Foundryがサードパーティモデルを次々とカタログに取り込んでいくこの戦略は、Microsoftが選んだ正しい方向性だと思っている。 「Azure基盤を手放さなくても、その上で動かすモデルは選べる」——この思想は非常に現実的だ。Azureのネットワーク・IDプラットフォーム・コンプライアンス基盤はエンタープライズ向けに長年磨かれてきた資産であり、それを活かしながら各タスクに最適なモデルを選択できる仕組みは、顧客にとっても価値がある。 Microsoftが「最も賢いモデルを自社で作る競争」で全方位に勝つ必要はない。「最も多くの優れたモデルが安全に動作するプラットフォーム」としての地位を確立できれば、それはそれで強固なポジションだ。Grok 4.20の追加はその路線の着実な一歩であり、エンタープライズAI活用の文脈で実力を発揮できると見ている。 日本企業においても、特定ベンダーのモデルにロックインするのではなく、用途ごとにモデルを選びながらもガバナンスは一本化する——そういうアーキテクチャを今から設計しておくことが、変化への対応力を高める近道になるだろう。 出典: この記事は Grok 4.20 is now available in Microsoft Foundry の内容をもとに、筆者の見解を加えて独自に執筆したものです。

April 12, 2026 · 1 min · 胡田昌彦

Azure Application Gateway V1、4月28日廃止確定——V2移行で得られる自動スケーリングとゾーン冗長性の実力

Azure Application Gateway V1の廃止期限まで、残り2週間を切った。2026年4月28日をもって正式にサポートが終了し、以降はサービス継続の保証がなくなる。まだV1を稼働させている環境がある場合、今すぐ移行作業を最優先で着手する必要がある。 Application Gateway V1とは何だったのか Azure Application Gateway は、Azureのレイヤー7ロードバランサーだ。HTTPSターミネーション、URLベースのルーティング、WAF(Web Application Firewall)統合などを提供し、Webアプリケーションのフロントエンドとして長く使われてきた。 V1はその初代実装であり、長年にわたって多くのワークロードを支えてきた。しかし、クラウドネイティブの要件が高度化するにつれ、V1のアーキテクチャ的な制約が明らかになってきた。固定のキャパシティユニット、ゾーン冗長非対応、IPアドレスの不安定さなど、エンタープライズ要件を満たすには無理が生じていた。 V2で何が変わるのか Application Gateway V2は、単なるバージョンアップではなくアーキテクチャの刷新だ。主な強化点を整理する。 自動スケーリング V1では事前にインスタンス数を手動設定する必要があった。V2では負荷に応じて自動的にスケールアウト・スケールインする。トラフィックの急増に備えた「余分なキャパシティを常時確保」という運用から解放される。 ゾーン冗長性 V2はAzure Availability Zones をまたいだ冗長配置に対応している。単一のAvailability Zoneで障害が発生しても、トラフィックは自動的に健全なゾーンに切り替わる。V1ではこの構成ができなかった。 静的VIP(仮想IPアドレス) V1では再起動やスケーリング操作のたびにパブリックIPアドレスが変わる可能性があった。V2では静的VIPが提供されており、DNSエントリやファイアウォールルールが意図せず無効化されるリスクがなくなる。 ヘッダー書き換えとカスタムエラーページ V2ではHTTPリクエスト・レスポンスのヘッダーを書き換えるルール機能が追加された。バックエンドが返す内部URLを書き換えてクライアントに返す、セキュリティヘッダーを動的に付与するといったユースケースがV1では実現できなかった。 移行作業のポイント 移行前の確認事項 現行V1のSKU(Standard / WAF)とサブネット設計をまず確認する。V2への移行では新しいサブネットが必要なことが多い。V1とV2は同一サブネットに共存できないため、移行中は並行稼働のための追加サブネットを用意する必要がある。 Microsoftが提供する移行ツール Microsoftは「Application Gateway Migration Script」をGitHubで公開している。PowerShellスクリプトであり、既存V1の設定を読み取ってV2相当のリソースを構成する。ただしすべての構成を自動変換できるわけではないため、スクリプト実行後の設定レビューは必須だ。 コストへの影響 V2は従量課金の構造がV1と異なる。「Capacity Unit」という単位で課金されるため、トラフィックパターンによっては月額コストが増減する。移行前にAzure料金計算ツールで試算することを推奨する。 切り替えのタイミング DNSのTTLを事前に短く設定しておき、V2への切り替え後に問題があればV1に素早く戻せる体制を整えてから実施するのが安全だ。カットオーバー当日の深夜メンテナンス枠での実施が現実的だろう。 実務への影響 日本のAzure利用企業で、まだV1を稼働させているケースは少なくないはずだ。特に2019〜2021年頃にAzure移行を完了し、その後インフラをあまり触っていない環境では要注意だ。 Azure Portalで「Application Gateways」→ 各リソースの「Overview」→ SKUバージョンを確認してほしい。「Standard」「WAF」と表示されていればV1、「Standard_v2」「WAF_v2」であればV2だ。 廃止後にV1リソースが「動いているように見える」うちはよいが、Microsoftのサポート対象外となることで障害時の復旧保証がなくなる。本番環境でそのリスクを取るのは合理的ではない。 筆者の見解 インフラのEOL(サポート終了)対応は、地味だが組織の技術的健全性を測る指標でもある。「動いているから放置」は短期的には正しいが、廃止期限が確定した時点で優先度が一段上がる。 Azureに限らず、クラウドサービスはオンプレミスと違って「廃止日が来たら本当に止まる」可能性がある。V2への移行自体は複雑な作業ではないし、移行後の運用はむしろ楽になる。ゾーン冗長と自動スケーリングが標準になれば、深夜のオンコール対応が減るはずだ。 今回のV1廃止は、Microsoftが継続的にサービスを進化させている証でもある。プラットフォームとしての進歩を享受するためにも、古いコンポーネントの入れ替えは定期的に行う習慣を持ちたい。インフラの棚卸しを年1回以上実施し、EOLトラッカーをCI/CDパイプラインや運用ドキュメントに組み込んでおくことを強くすすめる。 4月28日まで2週間を切った今、まず「自分たちのAzure環境にV1が残っていないか」を確認するところから始めてほしい。 出典: この記事は Application Gateway V1 will be retired on 28 April 2026 – Transition to Application Gateway V2 の内容をもとに、筆者の見解を加えて独自に執筆したものです。 ...

April 12, 2026 · 1 min · 胡田昌彦

Azure SRE AgentがGA——Pythonツール・MCPコネクタ・新料金体系、運用自動化の次のステージへ

AIエージェントが「実験的な機能」から「本番運用の主役」へと格上げされる瞬間が、また一つやってきた。MicrosoftはAzure SRE Agent(Site Reliability Engineering Agent)の一般提供(GA)を発表し、自律型インフラ運用の世界に向けて大きな一歩を踏み出した。 Azure SRE Agentとは何か Azure SRE Agentは、クラウドインフラの監視・インシデント検知・根本原因分析・自動修復を「人間の代わりに」実行するAIエージェントだ。従来のAlertルール+Runbookという「受動的な自動化」とは異なり、状況を理解し、判断し、複数の対処手順を自律的に実行するという点で質的に異なる。 GA版の主要な新機能 Pythonツールによる自動化ブロックの拡張 GA版ではPythonツールのサポートが強化された。カスタムスクリプトをエージェントの「手」として組み込めるようになり、既存の運用スクリプト資産をそのまま活用できる。「今ある自動化をAIエージェントに渡す」という発想で導入ハードルを大幅に下げている。 サブエージェントと並列実行 複雑なインシデントに対して、複数のサブエージェントを並列展開して調査・対処を分担できるようになった。たとえばネットワーク異常の調査・アプリケーションログの分析・データベース負荷の確認を同時並行で走らせ、統合した判断を下すことが可能になる。人間のSREチームが行う「手分けしての調査」をAIが再現する設計だ。 エージェントフック エージェントが特定のアクションを実行する前後に任意のロジックを挟める「フック」機能が追加された。「本番環境への変更には承認ステップを挟む」「重大なロールバック操作は必ずSlackに通知する」といったガバナンス要件をコードとして定義できる。エージェントの自律性と組織のコントロールを両立させる、実運用で不可欠な仕組みだ。 MCPコネクタによるエコシステム統合 Model Context Protocol(MCP)への対応が本格化した。PagerDutyやDatadog、ServiceNowといった既存のITSMツールとの連携が標準化されたプロトコルで実現できる。オープンなインターフェースを採用することで、ベンダーロックインを避けながら既存の運用ツールチェーンにAIエージェントを組み込める点は評価できる。 新料金体系:AAU(Active Agent Unit)課金 4月15日から、従来の時間課金に代わりAAU(Active Agent Unit)ベースの新料金体系が導入される。エージェントが「実際に活動した量」に応じた課金であり、待機中のコストを抑えられる設計だ。ただし、インシデントが多い環境では予算予測が難しくなる可能性もある。本番導入前にAAU消費量の見積もりと上限設定を必ず確認することを推奨する。 実務への影響——日本のエンジニア・IT管理者へ まず小さく試すなら: Azure Monitor Alertsとの統合から始めるのが最短経路だ。既存のアラートルールをそのまま「SRE Agentへのトリガー」として使えるため、既存資産を捨てずに段階的に移行できる。 ガバナンスが最初の壁になる: エージェントフック機能を使い、「本番変更は人間の承認なしに実行しない」ポリシーをコードで定義することが先決だ。自律エージェントの導入で最も失敗しやすいのは技術的な問題ではなく、「誰が何を許可したのか」という責任ラインの曖昧さだ。 既存のPythonスクリプト資産は活かせる: 多くの運用チームが持つPythonベースの自動化スクリプトはそのまま活用できる。「AIエージェントの導入=ゼロから作り直し」ではない。 AAU課金は本番前に必ずシミュレーションを: インシデント頻度・対処の複雑さによってAAU消費量は大きく変わる。課金上限をAzure Cost Managementで設定しておくことを強く勧める。 筆者の見解 Azure SRE Agentのアーキテクチャを見ると、Microsoftが「インフラ運用の自律化」に本気で取り組んでいることがよくわかる。サブエージェントの並列実行、エージェントフックによるガバナンス制御、MCPによるオープンな外部連携——これらは「AIをツールとして使う」段階を超え、「AIに運用の一部を委任する」段階への移行を支える正しい設計思想だと思う。 エージェントフックの設計は特に注目したい。AIエージェントに自律性を与えながら、人間の意図を「フック」として挟み込む仕組みは、エンタープライズ利用における信頼性の核心だ。ここを省くと「何でも勝手にやってしまう」問題が出る。この構造は長期的に見て、他のエージェントプラットフォームが参照すべきパターンになると考えている。 MCPへの対応については、オープンプロトコルへの投資はMicrosoftの「安全なエージェント実行プラットフォーム」戦略と整合しており、これは正しい方向だ。Azure基盤の上で、MCPを通じて最善のツール群を組み合わせて使えるようになるという未来は、現実的かつ魅力的な選択肢だ。 一方、AAU課金については、シンプルさという意味では一歩前進だが、インシデントが集中する月の予測可能性という点でまだ課題がある。この部分は今後の改善に期待したい。Microsoftにはこれを解決する技術力が十分にある。焦らず、真に使いやすい課金設計を作り込んでほしいと思う。 自律型エージェントが本番インフラを操作する時代が確実に来ている。「監視して通知する」だけのシステムから「判断して動く」システムへ——その移行を支援するプラットフォームとして、Azure SRE Agentは注目に値する存在になった。 出典: この記事は What’s new in Azure SRE Agent in the GA release の内容をもとに、筆者の見解を加えて独自に執筆したものです。

April 12, 2026 · 1 min · 胡田昌彦

Azure OpenAIでGPT-4.1ファミリーの廃止開始——移行計画は今すぐ確認を

Azure OpenAI(Microsoft Foundry)において、GPT-4.1・GPT-4.1 mini・GPT-4.1 nanoファミリーの廃止(Retirement)プロセスが2026年4月11日より正式に開始された。これはMicrosoftが継続的に進めているモデル世代更新の一環であり、既存のデプロイメントを持つ企業・開発者にとっては実運用への影響を無視できないニュースだ。 モデル廃止・退役のポリシーを正確に理解する Azure OpenAIでは、モデルのライフサイクルに関して明確なポリシーが設けられている。まず押さえておくべき用語の違いがある。 Deprecation(廃止): 新規顧客への提供が停止される。既存デプロイメントは引き続き利用可能。 Retirement(退役): 全顧客に対してモデルが利用不可となり、呼び出しはエラーを返す。 一般提供(GA)モデルの場合、リリースから最低12ヶ月は利用可能であり、その後も既存ユーザーは6ヶ月の猶予期間が与えられる。新規ユーザーは12ヶ月経過後にアクセスできなくなる。また退役の少なくとも60日前には通知が送られる仕様だ。 プレビューモデルについては退役まで90〜120日の猶予が基本となり、バージョンアップグレードの30日前には通知が届く。 通知の受け取り方——見逃さないための設定 Microsoftはモデル退役の通知を2つのチャネルで提供している。 Azure Resource Health経由: Readerロール以上の権限を持つユーザーが閲覧可能。メールやSMSによる個別アラート設定もできる。「Azure Service Health」フィルターで「azure OpenAI service」を選択し、イベントタイプに「Health advisories(Upgrade / Deprecation / Retirement通知)」を追加するのが基本設定だ。SMSアラートを希望する場合は「Create action group」からアクション設定を追加する。 メール通知: サブスクリプションオーナーには自動送信されるが、個別にアラートを設定すればReader権限でも受信できる。 重要なのは、退役はリージョンごとにローリング方式で実施される点だ。特定リージョンやSKUがいつアップグレードされるかの固定スケジュールは存在せず、一部リージョンでは容量の都合でN+1モデルではなくN+Xへ直接移行されるケースもある。 実務への影響——日本のエンジニア・IT管理者が今すぐやるべきこと 今回の廃止開始を受けて、現在Azure OpenAI(Microsoft Foundry)を本番利用している組織では以下を速やかに確認したい。 デプロイメント一覧の棚卸し: Azure PortalまたはAzure CLIで現在稼働中のGPT-4.1系デプロイメントを全リージョン分洗い出す。 Service Healthアラートの設定: まだ設定していない担当者は今日中に設定すること。通知を見逃したまま退役日を迎えるとエラーが発生し、ユーザー影響が出る。 後継モデルの評価: GPT-4.1の後継として提供されるモデルのパフォーマンス・コストを自社ユースケースで検証する。Microsoftは新GAモデルについて、次世代モデル(N+1)と並行して少なくとも60日間テストできる環境を提供している。 自動移行 vs 手動移行の判断: デプロイメントによっては自動アップグレードが走るケースもある。プロンプトや出力の変化が許容できないアプリケーションでは、手動でのバージョン固定管理を意識的に行う必要がある。 リージョンによって移行タイミングがずれる点も要注意だ。Japan EastとJapan Westで状況が異なる可能性があるため、マルチリージョン構成を持つ場合は特に注意が必要となる。 筆者の見解 Microsoftがモデルライフサイクル管理のポリシーを体系化し、60日前通知・Resource Health連携・メールアラートという多層的な仕組みを整備している点は、エンタープライズ利用の観点から正しい判断だと思う。「いつ使えなくなるかわからない」状態で本番システムにAIを組み込むのは怖くてできない、という声は日本企業でも多い。その不安に応えるガバナンス基盤として、Foundryプラットフォームは着実に成熟してきている。 ただ一方で、AIモデルの進化速度が従来のSaaSサービスとは桁違いに速い現実もある。12ヶ月サイクルで世代交代が続く環境では、「安定したモデルに依存した実装」というアプローチ自体を見直す必要があるかもしれない。特定のモデルバージョンに最適化したプロンプトやフローが、次世代モデルでは動作が変わるリスクを織り込んだ設計——つまりモデル非依存の抽象化層を持つアーキテクチャ——が、これからのAIシステム設計の標準になっていくだろう。 Azureという基盤の上でどのモデルを使うかを柔軟に選べること、それがMicrosoft Foundryの本質的な価値だと筆者は捉えている。プラットフォームとしての信頼性を保ちつつ、AI層の選択肢を広げていく方向性は長期的に正しい。モデル廃止の通知を受け取ったとき、それを「障害対応」ではなく「アーキテクチャを見直す好機」と捉えられるチームが、AIネイティブな開発文化を先行して作っていくことになるはずだ。 出典: この記事は GPT-4.1 Family Retirement Begins in Azure OpenAI - April 11, 2026 の内容をもとに、筆者の見解を加えて独自に執筆したものです。 ...

April 11, 2026 · 1 min · 胡田昌彦

Azure SRE AgentがAWS連携に対応——クロスクラウドのインシデント調査がAIエージェントで自動化

マルチクラウド環境を運用するエンジニアにとって、長年の悩みだった「クラウドをまたいだ障害調査」に、ついてAIエージェントが本格的に踏み込んできた。MicrosoftはAzure SRE AgentがAWS公式MCPサーバーを通じてAWSリソースとの連携に対応したことを発表。同時にAWS DevOps AgentのGA(一般提供開始)も告知された。 Azure SRE Agentとは何か Azure SRE Agent(Site Reliability Engineering Agent)は、Azureプラットフォーム上のインシデントを自律的に調査・分析するAIエージェントだ。アラートを受け取ると、関連するリソースのメトリクスやログを自動収集し、根本原因の候補を提示する。人間のSREが数十分かけて手動で追う調査フローを、エージェントが数分で代行する仕組みである。 クロスクラウド対応の技術的な仕組み 今回の拡張のキーとなるのがMCP(Model Context Protocol)だ。AWSが公式に提供するMCPサーバーをAzure SRE Agentが呼び出すことで、AWSのEC2・RDS・Lambda・CloudWatchといったリソース情報をAzure側のエージェントが横断的に参照できるようになる。 アーキテクチャ的に重要なのは、Azure側に何か特別なブリッジを作るのではなく、MCPという標準化されたプロトコルでAWS側がデータを公開し、それをAzureエージェントが消費するという構造である。これはベンダー固有の密結合ではなく、エージェント間連携の標準を活用したオープンな設計だ。 AWS DevOps AgentのGAも同時発表 あわせてAWS DevOps AgentのGA(一般提供開始)も発表された。こちらはAWSネイティブな環境向けのエージェントで、パイプラインの監視・デプロイ管理・インシデント対応を担う。Azure SRE AgentとAWS DevOps Agentが相互に連携することで、真の意味でのマルチクラウドAIOpsが実現しつつある。 実務への影響 日本の大手企業では、Azure上のID・認証基盤(Microsoft Entra ID)とAWS上のワークロードを並存させているケースが少なくない。このような環境でのインシデント対応は、従来「Azureチーム」と「AWSチーム」が別々にログを調べて情報をつき合わせるという非効率な手順を踏むことが多かった。 Azure SRE AgentのAWS連携により、以下のようなシナリオが現実的になる: Azure Front DoorからAWS ALB経由のトラフィック障害を、単一エージェントが両クラウドのログをまとめて調査 EntraIDの認証イベントとAWSのIAMエラーを関連付けて根本原因を特定 クラウド境界をまたぐレイテンシ問題のボトルネックを自動的に絞り込む IT管理者として明日から意識すべき実践的なポイントは以下だ: MCPサーバーの権限設計を事前に整備する — AWSのMCPサーバーがどのリソースにアクセスできるかをIAMで細粒度に制御しておくことが前提となる。ここを疎かにすると、インシデント調査の名目でエージェントが必要以上の情報を参照できてしまう エージェントへの読み取り専用アクセスを徹底する — 調査エージェントには「読む」権限だけを与え、「変える」権限は別のワークフローで人間が承認する設計にする MCPサーバーのログを監査対象に含める — エージェントがどのAPIを呼んだかは必ずトレースできる状態にしておく 筆者の見解 この発表で注目すべきは、MicrosoftがAWSと連携するエージェントを「自社製品の一機能」として正式に提供した点だ。競合のクラウドリソースを自分のエージェントで調査できるようにするというのは、ある意味で自信の表れでもある。 Microsoftがこれまで積み上げてきた強みは、個々のサービスの性能よりも「安全に動作するプラットフォーム全体」の提供にある。エージェントの管制塔としてのMicrosoft Entra IDや、マルチクラウドをまたいだガバナンス基盤という方向性は、長期的に見て正しい戦略だと思う。 マルチクラウドが現実となった今、「どのクラウドを使うか」という選択よりも、「どのエージェント基盤でそれらを統合管理するか」という問いの方が重要になってきた。その競争軸において、MicrosoftはAzureという巨大なプラットフォームとEntra IDという認証基盤を持つ強みを正面から活かせる立場にある。 日本のエンタープライズは、まだ「クラウドは1社で統一するべき」という慣性が強い。しかし現実のシステムはすでにマルチクラウドだ。この発表を機に、「統合管理の仕組みを今のうちに作っておく」という発想の転換が求められている。 出典: この記事は Announcing AWS with Azure SRE Agent: Cross-Cloud Investigation using the brand new AWS DevOps Agent の内容をもとに、筆者の見解を加えて独自に執筆したものです。 ...

April 11, 2026 · 1 min · 胡田昌彦

ソブリンクラウド時代が本格到来——Azure LocalとAzure Linuxで「データ主権」を守る実践アーキテクチャ

地政学的な不確実性が、ITインフラの「当たり前」を書き換えつつある。ヨーロッパや政府機関を中心に「ソブリンクラウド(主権的クラウド)」への関心が急速に高まっており、Microsoftもその需要に応える形でAzure LocalとAzure Linuxを軸とした戦略を本格化している。単なるオンプレミス回帰ではなく、クラウドの柔軟性を維持しながらデータ主権を確保するという新しい選択肢の登場だ。 ソブリンクラウドとは何か 「ソブリンクラウド」とは、特定の国家・地域の法律や規制に完全準拠する形でデータを管理・保管できるクラウドインフラを指す。その形態は幅広く、「国内リージョンのパブリッククラウド」から「完全に切り離されたオンプレミス展開」まで、スペクトラムはさまざまだ。 背景にあるのは地政学リスクだ。EUではフランスが2027年までに政府省庁のビデオ会議ツールをフランス製の「Visio」に切り替える方針を発表。オランダ軍は独自のソブリンクラウドを構築中で、オーストリア軍はMicrosoft OfficeからLibreOfficeへの移行を進めている。「クラウドは誰かのコンピュータ」という言葉が、かつてないほどリアルな意味を持つ時代になった。 Microsoftの階層型アプローチ Microsoftは以下の複数レイヤーでソブリンクラウド対応を実現している。 データレジデンシー(Data Residency): 特定国・地域内にデータを保持する保証 カスタマーロックボックス(Customer Lockbox): Microsoftがデータにアクセスする際に顧客承認を必須とする 機密コンピューティング(Confidential Computing): 処理中のデータも暗号化して保護 外部キー管理: Azure Key Vault Managed HSMによる顧客管理の暗号鍵 これらを組み合わせることで、規制が厳しい業界や政府系顧客でも要件を満たせる構成が実現できる。 注目のアーキテクチャ:Azure Local + Azure Linux 今回特に注目すべきは、Azure Localのマルチラック構成がAzure Linux上で稼働するという点だ。従来のWindows Serverではなく、Linuxをベアメタルインフラの基盤として採用するというMicrosoftの明確な戦略転換を示している。 Azure Localは、エンタープライズ向けプライベートクラウドオプションとして、完全オフラインのオンプレミス環境でもAzureの管理体験を提供する。Azure Arcを組み合わせることで、オンプレミスとパブリッククラウドを統一されたコントロールプレーンで管理することが可能になる。 アーキテクチャとしては: 物理インフラ層: 顧客データセンター内のAzure Local(Azure Linux稼働) 管理レイヤー: Azure Arc(ハイブリッド統合管理) ポリシー・認証層: Microsoft Entra ID+Azure Policy クラウドから切り離しつつも、クラウド管理の体験を損なわないアーキテクチャだ。 日本のIT現場への影響 日本において、ソブリンクラウドへの関心はまだ欧州ほど表立っていないが、以下の領域では確実に議論が始まりつつある。 金融・医療・行政系システム: データの所在要件が強化される動きが出ている 防衛関連サプライチェーン: クラウド調達要件に伴い、データ管理の厳格化が求められつつある 重要インフラ事業者: 外国政府によるデータアクセスへの懸念が一部の業界で高まっている IT管理者・エンジニアへのアクションポイント: 現在のAzure利用において「データはどこに保存されているか」を改めて棚卸しする Customer Lockboxが有効化されているか確認する(デフォルト無効のリソースが多い) 規制要件がある部門について、Azure Policyでのデータレジデンシー制御を検討する オンプレミス資産がある場合は、Azure Arcによるハイブリッド管理への移行を評価する 筆者の見解 ソブリンクラウドの議論を整理するうえで、まず押さえておきたいのは「これは単なるオンプレミス回帰ではない」という点だ。 Azure LocalがAzure Linux上で稼働するという事実は、Microsoftのインフラ戦略における重要な転換点を意味する。かつては「MicrosoftといえばWindows Server」だったが、クラウドネイティブの時代においてMicrosoftが最も効率的で安定したインフラを追求した結果、Linuxに行き着いた。この柔軟性と実用主義はMicrosoftの強みであり、正しい方向性だと思う。 ...

April 11, 2026 · 1 min · 胡田昌彦

Azure MCP Server 2.0 正式リリース——57サービス・276ツールで拡がるエージェント自動化の新地平

Microsoftは2025年、AI エージェントとクラウドリソースをつなぐオープンソースの橋渡し役として Azure MCP Server を公開したが、このたびその 2.0 安定版がリリースされた。276 のMCPツールを 57 の Azure サービスにわたって提供するこのプラットフォームは、今回のリリースで「個人の開発環境で試す」段階から「チームやエンタープライズ全体で本番運用する」段階へと大きく踏み出した。 Azure MCP Server とは何か MCP(Model Context Protocol)は、AIエージェントや開発ツールが外部システムと対話するための標準仕様だ。Azure MCP Server はこの仕様を実装し、Azure のリソース操作——プロビジョニング、デプロイ、監視、運用診断——を構造化されたツールとしてエージェントに提供する。 重要なのは、これがベンダーロックインのための独自プロトコルではなく、オープンな仕様に乗っている点だ。MCPに対応した任意のエージェントフレームワークや IDE から利用できる。 2.0 の核心:セルフホスト型リモートサーバー 1.0 はローカル開発環境での利用が中心だった。2.0 の最大の変化は、Azure MCP Server をリモートサーバーとして組織内に自前でホストできるようになったことだ。 これが意味するのは以下のようなシナリオだ: 開発チーム全員が共通の MCP エンドポイントを使う(設定の一元管理) CI/CD パイプラインや社内自動化システムから MCP 経由で Azure を操作する テナントコンテキストやサブスクリプションのデフォルト値を組織レベルで制御する エンタープライズのネットワークポリシーの境界内に閉じ込めて運用する 認証についても柔軟に対応している。Microsoft Foundry と組み合わせる場合はマネージドIDを利用でき、ユーザーの署名済みコンテキストを安全に引き渡す On-Behalf-Of(OBO)フローにも対応する。 セキュリティ強化の具体的な内容 2.0 ではセキュリティと運用安全性が設計の中心に据えられた。主な改善点は: エンドポイントのバリデーション強化:不正なリクエストをより早い段階で弾く インジェクション攻撃への対策:クエリ系ツールへの一般的なインジェクションパターンを検出・ブロック 開発環境の分離強化:ローカル実行時の環境汚染リスクを低減 AI エージェントがクラウドリソースを直接操作する世界では、従来の「人間がコマンドを打つ」前提のセキュリティモデルでは不十分だ。エージェントが生成したクエリやパラメータは予測不能な形を取りうる。この方向性での投資は当然必要だし、2.0 での対応は評価できる。 ソブリンクラウドへの対応 日本の大企業・公共機関にとって見逃せないのがソブリンクラウド対応の強化だ。Azure Government や国内のリージョン要件を持つ環境でも利用できる体制が整いつつある。規制業種への展開を検討している組織は、この点を確認しておくと良いだろう。 実務への影響——日本のエンジニア・IT管理者にとっての意味 いま考えておくべきこと: 中央管理型 MCP エンドポイントの設計: 野良エージェントが各自の認証情報で Azure を触る状況は避けたい。チームの MCP サーバーを一箇所に立て、アクセス制御と設定を一元化する設計を今から考えておく価値がある。 ...

April 10, 2026 · 1 min · 胡田昌彦

AKS Kubernetes 1.35 が正式GA——1.32サポート終了は4月30日、今すぐアップグレードを

Azure Kubernetes Service(AKS)において、Kubernetes 1.35 が正式版(GA)として全リージョンへのロールアウトを開始した。新バージョンの到来と同時に、現在運用中のクラスターを使い続けているチームが注目すべきは「終わる側」のニュースだ。Kubernetes 1.32 の標準サポートは 2026年4月30日に終了する。残り時間はわずかである。 Kubernetes 1.35 で何が変わるか Kubernetes 1.35 では、Pod レベルのリソース管理やノードのライフサイクル制御にまつわるいくつかの機能がステーブルに昇格している。特に注目したいのは以下の点だ。 Sidecar コンテナの Stable 化: 1.33 で Beta に到達していたサイドカーコンテナ機能が、より安定した動作保証を得た。ロギングエージェントやサービスメッシュのプロキシをサイドカーとして扱うユースケースでの本番投入障壁がさらに下がる リソース管理の精緻化: CPU・メモリの要求値と上限値の扱いが改善され、バースト可能なワークロードの調整が以前より直感的になっている セキュリティコンテキストの強化: コンテナ実行時の権限制御に関わる API がより細かく操作できるようになり、最小権限原則の実装がしやすくなった AKS 固有の観点では、ノードプールの OS ディスク管理や、Azure CNI Overlay との組み合わせにおける安定性が引き続き改善されており、大規模クラスターを運用する環境ほど恩恵が大きい。 1.32 サポート終了——「後で」では間に合わない 1.32 の標準サポート終了後は、セキュリティパッチやバグ修正の提供が打ち切られる。AKS のサポートポリシーは原則として「N-2」、つまり最新から2世代前まで。1.35 が GA となった今、1.32 はその枠の外に出ていく。 アップグレードの手順自体はドキュメント化されているが、実際の現場ではいくつかの落とし穴がある。 非推奨 API の除去: バージョンを跨ぐと以前使えた API バージョンが廃止される場合がある。kubectl api-versions と kubectl deprecations(Pluto 等のツール)で事前スキャンを行うこと ノードプールの段階的更新: コントロールプレーンを先に上げ、その後ノードプールを更新する順序を守る。一気に飛ばすと予期せぬ非互換が発生しやすい PodDisruptionBudget の確認: ノードのローリングアップデート時に PDB が厳しく設定されていると、更新が止まる。事前確認は必須 実務への影響——日本のエンジニア・IT管理者にとっての意味 日本の企業 IT においても、コンテナ基盤の本番採用は着実に増えている。特に金融・製造・流通の大手では、AKS をマイクロサービス基盤として採用しているケースが増えてきた。そのような環境でバージョン管理を後回しにすると、年次の監査で「サポート切れ基盤の稼働」という指摘を受けるリスクが生じる。 明日から使えるアクションポイント: ...

April 10, 2026 · 1 min · 胡田昌彦