AIエージェントを2コマンドで本番環境へ——Azure Developer CLIの新機能「azd ai agent」でMicrosoft Foundryデプロイが激変

ローカルで動くエージェント、次のステップは? AIエージェントをローカルで作り上げた後、最大の壁となるのが本番環境へのデプロイだ。リソースのプロビジョニング、モデルのデプロイ、マネージドIDの設定、接続のワイヤリング——これらをすべて手作業でつなぎ合わせるのは、開発者にとって大きな負担だった。 Microsoftは、Azure Developer CLI(azd)に新しいワークフロー azd ai agent を追加。リポジトリから本番稼働中のエージェントへ、わずか2コマンドで到達できる開発体験を実現した。 デプロイまでのステップ 1. サンプルプロジェクトのクローン チュートリアルでは、Pythonベースのホテルコンシェルジュエージェントを例に使用する。VS Codeで開いてすぐに作業を開始できる。 元記事: From code to cloud: Deploy an AI agent to Microsoft Foundry in minutes with azd

March 23, 2026 · 1 min · 胡田昌彦

AKS、Ubuntu 24.04が正式対応&ブルーグリーンノードアップグレードがプレビュー公開

AKS、Ubuntu 24.04 GAとブルーグリーンアップグレードで運用の幅が広がる Microsoftは2026年3月、Azure Kubernetes Service(AKS)において複数の重要なアップデートを発表した。なかでも注目は、Ubuntu 24.04のGA(一般提供)昇格と、ブルーグリーン方式のノードプールアップグレードのパブリックプレビュー開始の2点だ。 Ubuntu 24.04がKubernetes v1.32以降の標準ノードOSに Ubuntu 24.04(Noble Numbat)が、Kubernetes v1.32以降を使用するAKSクラスターの標準ノードOSとして正式採用された。主な改善点は以下のとおり。 Containerd 2.0同梱: コンテナランタイムが最新世代に刷新され、起動速度と安定性が向上 起動時間の短縮: ノードの起動プロセスが最適化され、スケールアウト時のレイテンシが改善 カーネルハードニング強化: セキュリティ設定がデフォルトで強化されており、本番環境への適用が安心しやすくなった Ubuntu 20.04から22.04への移行でつまずいた経験を持つ組織にとっても、今回は標準パスとして提供されるため、スムーズな移行が期待できる。 ブルーグリーンアップグレードで無停止運用が現実的に これまでノードプールのアップグレード中は断続的なワークロード影響が生じることがあったが、ブルーグリーン方式の導入によって状況が大きく変わる。 ブルーグリーンアップグレードでは、既存のノードプール(Blue)を稼働させたまま、新しいバージョンのノードプール(Green)を並行して立ち上げ、切り替えを行う。移行が完了するまでBlue側はトラフィックを受け持ち続けるため、アップグレード中のダウンタイムをほぼゼロに抑えられる。 この手法は、金融・医療・ECなど可用性要件の高い本番環境での採用が特に期待される。現在はパブリックプレビュー段階であり、正式採用前に検証環境での試験を推奨する。 その他の主なアップデート Kubernetes新パッチ版の提供開始: v1.32.11、v1.33.7、v1.34.3が利用可能に KubernetesLTS版v1.28の非推奨化: サポート対象バージョンへの移行を早急に検討すること Azure Linux、GPU対応を拡充: NVIDIA A100・H100・H200 VMもサポート対象に OpenTelemetry(OTLP gRPC)のパブリックプレビュー: Azure Monitorとの連携がより柔軟に Ciliumをv1.18.6に更新: CVE-2025-64715およびCVE-2026-26963に対処 FlatcarコンテナLinuxの廃止予告: 2026年6月8日にプレビュー終了。移行計画が必要 まとめ AKSはUbuntu 24.04の正式採用でセキュリティと性能の基盤を強化しつつ、ブルーグリーンアップグレードで運用時の柔軟性を大幅に高めた。Kubernetes v1.28のEOLも控えており、クラスターのバージョン管理を早めに見直しておきたいタイミングだ。 元記事: Azure Kubernetes Service: Ubuntu 24.04 GA and Blue-Green Node Pool Upgrade Preview

March 23, 2026 · 1 min · 胡田昌彦

Microsoft Foundry「Priority Processing」がGA——プロビジョニング不要でSLA保証のAI推論を実現

Microsoft Foundry、遅延に敏感なAIワークロード向け「Priority Processing」を正式提供開始 Microsoftは、クラウドAI開発プラットフォーム「Microsoft Foundry(旧Azure AI Foundry)」において、Priority Processing(優先処理) 機能の一般提供(GA)を発表した。リアルタイム性が求められるAIアプリケーションのレスポンスタイムを大幅に改善する新機能だ。 プロビジョニング不要でSLA保証のパフォーマンス Priority Processingの最大の特徴は、プロビジョニング済みスループット(PTU)を事前確保しなくても、SLA(サービスレベルアグリーメント)に裏付けられたパフォーマンスが得られる点にある。 従来、AIモデルの安定した推論速度を確保するにはPTUの事前購入が必要だった。これはコストと計画の両面で企業にとって負担となっていた。Priority Processingはこの制約を取り除き、従量課金モデルのまま優先的なリソース割り当てを受けられる仕組みを提供する。 チャットbotからコパイロットまで——インタラクティブAI体験に最適 この機能が特に威力を発揮するのは、ユーザーがリアルタイムで操作するシナリオだ。具体的には以下のようなユースケースが想定される: カスタマーサポートチャットbot — 問い合わせへの即時応答 AIコーディングアシスタント — コード補完や提案のリアルタイム表示 コパイロット型アプリケーション — ドキュメント作成支援や検索拡張生成(RAG) 音声AIエージェント — 自然な会話フローを維持するための低レイテンシー処理 Adobe・Harveyなど先進企業がすでに導入 GA前のアーリーアクセス段階から、すでに複数の有力企業が本機能を採用している。クリエイティブソフトウェア大手のAdobeは、AIを活用したデザインツールの操作感改善に活用。リーガルテック企業のHarveyは、法律専門家向けAIアシスタントの応答性向上に役立てている。 両社とも「ユーザーが体感できるレベルでの応答速度改善が確認できた」とコメントしており、インタラクティブなAI体験の品質向上に直結する機能として評価されている。 日本企業への影響 国内でも、Azure OpenAI ServiceやMicrosoft Foundryを活用したAIソリューション導入が急速に広がっている。カスタマーサポートの自動化や社内向けコパイロット構築を進める企業にとって、追加のインフラ投資なしにエンドユーザー体験を向上できるPriority Processingは、ROI改善の観点からも注目に値する機能だ。 Microsoft Foundryのコンソールから即日有効化が可能で、既存のAzure OpenAI Serviceとの統合も容易とされている。 元記事: Announcing Priority Processing in Microsoft Foundry for Performance-Sensitive AI Workloads

March 23, 2026 · 1 min · 胡田昌彦

Azure MCPサーバー 1.0.0 正式リリース——AIエージェントとクラウドをつなぐ新時代の幕開け

AIエージェントがAzureを操る——MCP正式版がついに登場 Microsoftは2025年、Azure MCPサーバー 1.0.0 の安定版を正式リリースした。Model Context Protocol(MCP)を活用し、AIエージェントとAzureクラウドリソースをシームレスに接続するオープンソース実装だ。 MCPとは何か MCP(Model Context Protocol)は、AIエージェントが外部システムと通信するための共通プロトコルで、「エージェント界のUSB規格」とも呼ばれる。Anthropicが策定したこのプロトコルをAzureが公式実装したことで、GitHub Copilot Agent ModeやAzure AI Foundryをはじめとするさまざまなエージェントから、クラウドリソースを自然言語で操作できるようになる。 47以上のAzureサービスに対応 今回の正式版では、以下のカテゴリにわたる47以上のAzureサービスがサポートされている。 AIサービス: Azure AI Foundry、AI Search データベース: PostgreSQL、Azure Data Explorer(Kusto) メッセージング: Event Hubs、Service Bus コンピューティング: Function Apps インフラ: リソースグループ、Storage、App Configuration、Log Analytics 開発者体験の大幅な改善 プレビュー段階では170以上のツールが乱立していたが、今回の1.0では整理・統合が進み、発見しやすく・使いやすいツールセットに刷新された。Visual Studio Code、Visual Studio、IntelliJといった主要IDEとの統合も強化されており、日常の開発ワークフローにそのまま組み込める。 CI/CDパイプラインへの統合を想定し、Dockerイメージとしての提供とMicrosoft Container Registry(MCR)への掲載も行われた。コンテナ数行のコマンドでエージェントワークフローを立ち上げられる点は、DevOps現場での活用を大きく後押しするだろう。 実際の活用シナリオ 公式ブログでは「GitHub Copilotに『フォトギャラリーアプリをビルドしてデプロイして』と指示するだけで、Azure MCPサーバーがストレージ・コンテナ・監視・デプロイを自動でオーケストレーションする」というデモが紹介されている。自然言語でデータベースを照会したり、ストレージやログを管理したり、CLIコマンドの実行・デプロイの自動化まで、エージェントが一気通貫で担えるようになる。 日本の開発者への影響 Azureを利用する日本企業にとっても、この正式リリースは注目すべき転換点だ。GitHub Copilotとの深い統合により、Azure上のリソース管理をコーディング中にその場で完結できる。また、MCPは業界標準になりつつあるプロトコルであり、Azureに限らずマルチクラウド・ハイブリッド構成との接続にも将来的な応用が期待される。 オープンソースとして公開されているため、独自のMCPクライアントや社内エージェントフレームワークへの組み込みも容易だ。 ※出典: Announcing Azure MCP Server 1.0.0 Stable Release – A New Era for Agentic Workflows 元記事: Announcing Azure MCP Server 1.0.0 Stable Release – A New Era for Agentic Workflows ...

March 22, 2026 · 1 min · 胡田昌彦

レガシーDBからの脱却:Azure PostgreSQLでエンタープライズが60%コスト削減を実現

オンプレミスDBがボトルネックに——レガシー脱却の波 デジタル経済の加速とともに、企業のデータインフラが変革の岐路に立っている。長年にわたってエンタープライズシステムを支えてきたOracleをはじめとするオンプレミスデータベースは、ライセンス費用の高騰、スケーリングの限界、そして保守に必要な専門人材の確保難という三重苦に直面している。 Microsoftはこの課題に正面から向き合い、PostgreSQLを「最高性能かつエンタープライズ対応のオープンデータベースプラットフォーム」にするというビジョンを掲げ、複数年にわたる大規模投資を続けている。その集大成がAzure Database for PostgreSQLであり、2024年に新たに発表されたAzure HorizonDBだ。 Apollo Hospitalsの事例:医療DXを支えるDB移行 最も説得力のある成功事例が、アジア最大級の医療グループであるApollo Hospitals(インド)だ。74以上の病院、1万床超を擁するApolloにとって、院内情報システム(HIS)は文字通りの生命線。しかし、Oracle上に構築されたシステムはパフォーマンスのボトルネックが常態化し、スケーリングコストは持続不可能な水準に達していた。 ApolloはAzure Database for PostgreSQLへの全面移行を決断。Microsoftとクラウドパートナーとの密な連携のもと移行を完遂した結果、以下の成果を達成した。 トランザクションの90%が5秒以内に完了(臨床システムの応答性が劇的に向上) **稼働率99.95%**を達成し、病院業務の継続性を確保 デプロイ時間40%短縮により、新機能のリリースサイクルが加速 運用コスト60%削減、システム性能は3倍に向上 医療という一切のダウンタイムが許されない領域での成功は、エンタープライズ向けPostgreSQLの成熟を如実に示している。 移行の壁をAIで突破——OracleスキーマをPostgreSQLへ Oracle移行の最大の技術的障壁は、ストアドプロシージャや独自SQL構文の変換だ。大規模エンタープライズでは数千〜数万のオブジェクトが絡み合い、手作業での変換は現実的でない。 MicrosoftはAIアシスト移行ツールの整備にも注力しており、Oracleスキーマ・PL/SQLコードのPostgreSQL互換SQL(PL/pgSQL)への自動変換を支援する。日本企業においても、金融・製造・医療分野でOracleからの移行検討が増えており、こうしたツール整備は移行ハードルを大きく下げる可能性がある。 オープンソースとクラウドの融合が生む競争優位 PostgreSQLはもともとオープンソースであり、ベンダーロックインを避けながらエンタープライズ品質のデータベース環境を構築できる点が日本市場でも評価されている。Azure上でのマネージドサービスとして提供されることで、インフラ管理の負担をクラウドに委ねつつ、PostgreSQLのエコシステム(拡張機能・ツール群)を最大限に活用できる。 Microsoftが「レガシーからリーダーシップへ」というメッセージを前面に打ち出した今回の発表は、エンタープライズDB市場におけるOracleへの明確な対抗宣言とも読み取れる。コスト・性能・俊敏性の三点において、クラウドネイティブなPostgreSQLが実績を積み重ねつつある。 ※出典: From legacy to leadership: How PostgreSQL on Azure powers enterprise agility and innovation 元記事: From legacy to leadership: How PostgreSQL on Azure powers enterprise agility and innovation

March 22, 2026 · 1 min · 胡田昌彦

MicrosoftがNVIDIA GTCで発表——Azure AIインフラ強化とPhysical AI、Microsoft Foundryの新ソリューション

MicrosoftがNVIDIA GTCで大規模AI強化策を発表 Microsoftは、NVIDIAが主催する世界最大級のAI・GPU技術カンファレンス「NVIDIA GTC 2026」において、Microsoft Foundry、Azure AIインフラストラクチャ、そして**Physical AI(フィジカルAI)**に関する複数の新ソリューションを発表した。 NVIDIAとの協業をさらに深化 MicrosoftとNVIDIAは長年にわたり、ハードウェア・ソフトウェア・インフラを統合し、今日の重要なAIブレークスルーの多くを支えてきた。今回の発表は、この戦略的パートナーシップをさらに一歩進めるものとなる。 加速コンピューティング(Accelerated Computing)とクラウドスケールエンジニアリングを組み合わせることで、企業が必要とする高度なAI能力をスケーラブルに提供することが今回の取り組みの核心だ。 Microsoft Foundryの新展開 Microsoft Foundryは、企業がカスタムAIモデルを構築・展開するためのプラットフォームとして注目を集めている。GTCでは、NVIDIAのGPUアーキテクチャとの統合を強化した新ソリューションが披露され、モデルの学習から推論までをシームレスに実現する環境整備が進む。 日本でもAIシステムの内製化や独自モデル開発への関心が高まっており、Microsoft Foundryのような基盤プラットフォームの動向は、エンタープライズITの観点から注視すべき存在となっている。 Azure AIインフラの拡張 AzureにおけるAIインフラ強化も今回の発表の柱の一つだ。大規模言語モデル(LLM)や生成AI(Generative AI)ワークロードに対応するため、NVIDIAの最新GPU基盤とAzureクラウドの組み合わせによる処理能力の向上が図られる。 これはAIの「民主化」というトレンドに沿ったもので、大企業だけでなく中規模の組織でも高性能なAIインフラを利用しやすくなることが期待される。 Physical AIへの注力 特に注目されるのがPhysical AI分野への進出だ。Physical AIとは、ロボティクス・自動運転・製造ラインの自動化など、物理的な世界に作用するAIシステムを指す。NVIDIAが推進するOmniverse基盤と組み合わせることで、産業用AIの実装がさらに加速するとみられる。 製造業や物流業が強い日本においても、Physical AIの普及は業界構造を大きく変える可能性を秘めており、Azureとの連携動向は継続的に追いかける価値がある。 まとめ MicrosoftのNVIDIA GTCにおける一連の発表は、単なる製品アップデートにとどまらず、AIインフラ全体のエコシステムを再定義しようとする大きな意思表示といえる。Microsoft AzureとNVIDIAの協業がどこまで深まるか、今後の展開から目が離せない。 ※出典: Microsoft at NVIDIA GTC: New solutions for Microsoft Foundry, Azure AI infrastructure and Physical AI 元記事: Microsoft at NVIDIA GTC: New solutions for Microsoft Foundry, Azure AI infrastructure and Physical AI

March 22, 2026 · 1 min · 胡田昌彦

MicrosoftがエージェントAI時代に向けてデータベース基盤を統合——Azure SQLにAI機能を直接統合

MicrosoftがエージェントAI時代のデータ基盤を再定義 Microsoftは2026年3月18日、FabCon(Fabric Conference)およびSQLCon 2026に合わせて、Azure SQLを核とした統合データプラットフォームの最新戦略を発表した。オンプレミスのSQL Serverからクラウド上のAzure SQLまで、一貫した「Microsoft SQL基盤」の上でエージェントAI(Agentic AI)を実現する取り組みだ。 エージェントAIとデータの融合 「エージェントAI」とは、単に問い合わせに答えるだけでなく、自律的にタスクを計画・実行するAIシステムのこと。このようなAIが実用的に機能するためには、信頼性の高いデータへのリアルタイムアクセスが不可欠となる。 Microsoftのアプローチは、AIとデータベースを別々のレイヤーとして扱うのではなく、データベース体験の中にAI機能を直接組み込むという点が特徴的だ。Azure SQLにベクトル検索やAI推論機能を統合することで、アプリケーション側での複雑なデータ処理パイプラインを省略できる。 Microsoft Fabricとの統合が鍵 今回の発表の背景には、昨年来加速しているMicrosoft Fabric(統合データ分析プラットフォーム)との連携強化がある。Azure SQL、Cosmos DB、Azure Database for PostgreSQL/MySQLなどMicrosoft傘下のデータベースが「単一のデータ資産(Unified Data Estate)」として扱えるようになり、エージェントAIがシームレスにデータをまたいで活用できる環境が整いつつある。 日本企業においても、SAP、Oracle等のオンプレミスシステムからAzureへの移行を進める中で、既存のSQL Server資産をそのままクラウドに持ち込みつつAI機能を追加できる点は大きなメリットとなるだろう。 実務への影響 この方向性が意味するのは、アプリ開発者がLangChainや独自のベクトルDBを別途構築しなくても、使い慣れたSQLの延長線上でRAG(Retrieval-Augmented Generation)やエージェント機能を実装できるようになるということだ。 MicrosoftはAzure AI ServicesやCopilot Studioとの連携も深めており、データベース層からアプリケーション層まで一気通貫でAIを活用できるエコシステムの構築を着実に進めている。 ※出典: Advancing agentic AI with Microsoft databases across a unified data estate 元記事: Advancing agentic AI with Microsoft databases across a unified data estate

March 22, 2026 · 1 min · 胡田昌彦