AIエージェントが業務の至るところに展開される時代が本格到来しつつある中、Microsoftが2026年4月30日、AIエージェントに特化したセキュリティ機能群を一斉公開した。Agent 365 Runtime Protection、Defender for CloudのAI Security Posture Management(AI-SPM)、GitHub Advanced Securityの強化、Microsoft PurviewのAI Data Security Investigationsと、守備範囲はインフラからコード、コンプライアンスまで広範にわたる。EU AI Actの本格施行が2026年8月に迫る中、このタイミングの発表は偶然ではない。

AIエージェントのリアルタイム監視——Agent 365 Runtime Protection

現在パブリックプレビュー中のAgent 365 Runtime Protectionは、Copilotプラットフォーム上で動作するAIエージェントの挙動をリアルタイムで監視する仕組みだ。従来の静的ルールではなく、行動ベースラインと異常検知エンジンを組み合わせることで、未知の攻撃パターンにも対応できる点が大きな特徴である。

エージェントが認可外のデータアクセスや予期せぬAPIコールを試みた場合、アクセス権を自動で剥奪し、Microsoft Entra IDと連携して最小権限ポリシーを動的に適用する。医療分野でのアーリーアダプター事例では、スケジューリングエージェントが患者データを外部メールに転送しようとした操作をリアルタイムでブロックしたという。HIPAAコンプライアンス違反になりかねなかった事案を未然に防いだこのケースは、エンタープライズ展開における実用価値を端的に示している。一般提供(GA)は2026年Q3の見込みだ。

セキュアスコアでAIワークロードを可視化——Defender for Cloud AI-SPM

Defender for CloudにAI Security Posture Management(AI-SPM)が加わった。Azure OpenAI、Copilot Studio、カスタムエージェントフレームワークといった全AIワークロードを一元ダッシュボードで把握し、セキュアスコアとして評価する。

過剰なモデルエンドポイント権限やコンテンツフィルターの欠如などのミスコンフィグレーションを検出し、プロンプトインジェクションやモデル盗用の脅威検知結果はMicrosoft Sentinelにアラートとして流れる。クラウドだけでなくAzure Arc経由でハイブリッド環境もカバーしている点は、オンプレミスとの共存が続く日本の大企業にとって見逃せないポイントだ。

AIが書いたコードのリスクを洗う——GitHub Advanced Security

AI生成コードの脆弱性は従来の静的解析ツールが見落としやすい。今回のCodeQL強化では、安全でないデシリアライズ、幻覚による存在しないライブラリの呼び出し、ロジック上の欠陥など、AI特有の脆弱性パターンを検出するクエリパックが追加された。

さらに注目すべきは、AIエージェントが開発ワークフロー中に動的生成したAPIキーやトークンを検出できるようになったシークレットスキャンの強化だ。従来の静的スキャンでは拾えなかったこのリスクへの対応は、AI活用が進む現場では即座に価値を発揮する。

Agent Actions Auditにより、Copilot Chatエージェントがプルリクエストで提案した全コード変更と、その変更を引き起こしたプロンプトのコンテキストが記録される。センシティブなモジュールに触れるエージェント生成コードには手動承認ポリシーを設定できるため、CI/CDパイプラインの整合性を保ちながらAI活用を進められる。

データライフサイクルを可視化——Purview AI Data Security Investigations

Microsoft PurviewのAI Data Security Investigationsは、M365・Azure・サードパーティAIサービスのログを横断的に相関分析し、AI操作のデータライフサイクルを視覚的なタイムラインで再構築する。マーケティングエージェントが顧客データベースにアクセスし、個人情報を要約して外部モデルに共有した一連の流れを事後に追えるようになる、といったユースケースが想定されている。

AI-sensitive information typesの導入により、AIシステムが生成・入力したデータの自動分類も可能になり、保持ラベルやデータ損失防止(DLP)ポリシーの適用精度が高まる。

実務への影響——日本のエンジニア・IT管理者に向けて

今すぐ始められることを整理する。

  • AI-SPMのセキュアスコアをベースラインに: 既存のAzure AIワークロードを棚卸しし、AI-SPMダッシュボードでスコア化するだけで優先対応箇所が明確になる。現状把握から始めるのが最短ルートだ。
  • GitHubのAgent Actions Auditを開発ポリシーに組み込む: AI生成コードに対する特別なレビュープロセスを設けるかどうか、まずポリシーを定義することから着手するとよい。
  • Purviewで証跡自動化の検討を: EU AI Act対応が必要な組織はもちろん、将来の国内規制に備える観点でも、今のうちにPurviewのタイムライン機能を使って知見を蓄えておく価値がある。
  • NHI(Non-Human Identity)管理の整備: AIエージェントはNHIの典型だ。エージェントが増えるほど、各エージェントに付与されたIDと権限の管理が複雑化する。今回のEntra ID連携・最小権限の動的適用はこの問題への直接的な答えであり、業務自動化推進のボトルネック解消にも直結する。

筆者の見解

今回の発表を一言で表すなら、「エージェント時代のゼロトラストを本気で設計しはじめた」ということだと思う。エージェントは人間と同じように——いやそれ以上の速度で——大量のデータにアクセスし、外部サービスと通信し、コードを書く。そのひとつひとつにIDがあり、権限があり、監査ログが必要になる。ここを疎かにした状態でエージェントをばらまくのは、かつての「サービスアカウントのパスワードを何年も変えていません」という状況と構造的に何も変わらない。

Entra IDを軸にエージェントのIDと権限を管理するというアーキテクチャは、長期的に見て非常に筋が通っている。最もスマートなAIモデルを提供する競争とは別の次元で、最も多くのエージェントが安全に動作できるプラットフォームを整備しようとしているのが見える。そこはMicrosoftが本来最も得意とする領域だ。

一方で、今回のセキュリティ基盤の充実が進んでいるからこそ、その土台で動くエージェントの開発体験や品質もあわせて底上げしてほしいとも思う。プラットフォームの安全性向上と、使い勝手の改善は車の両輪だ。セキュリティが整ってきた今こそ、次のフェーズに期待したい。

EU AI Act施行を目前に控えたこのタイミングで、ここまで体系的な機能群をリリースしたことは評価できる。日本国内でも類似の規制論議がいずれ本格化するのは時間の問題だ。今のうちにこれらのツールを使って組織の知見を蓄えておくことが、近い将来の競争優位に直結するはずだ。


出典: この記事は Microsoft April 30, 2026 Security Update: Agent 365 Runtime Protection, GitHub, Purview の内容をもとに、筆者の見解を加えて独自に執筆したものです。