気づかれずに会議室に座り続けるAI
先月のプロジェクトキックオフ会議を思い出してほしい。参加者欄に「Meeting Notetaker」という名前のアカウントが表示されていなかっただろうか。それがRead.aiなどのサードパーティAIボットだったとしたら——見積もり金額も、NDA関連の話も、すべて外部クラウドに送られている可能性がある。
誰も「AIに議事録を取らせる」とは決めていない。ただ、誰も「取らせない」とも決めていなかった。だから、それが起きた。
Microsoftは2026年5月、この状況を変える機能を展開する。IT管理者が今すぐポリシーを決めなければならない理由がここにある。
何が変わるのか——MC1251206の概要
Message Center通知 MC1251206 として告知されたこの新機能は、Teamsミーティングへ参加しようとするサードパーティAIボットを検出するポリシーだ。展開スケジュールは以下の通り。
- Targeted Releaseテナント: 2026年5月中旬
- Worldwide GA・GCC: 2026年6月上旬〜中旬
動作の仕組み
サードパーティボットがTeams会議への参加を試みると、ロビー画面に 「Suspected threats(疑わしい脅威)」 セクションが現れ、「Unverified trust(未確認の信頼性)」 インジケーターとともに表示される。ボットは人間の参加者とは別に区分けされ、主催者が明示的に「許可・拒否・削除」を選択しなければ入室できない。
Teams管理センターからはテナント全体のポリシーを設定でき、デフォルトは「検出されたボットは主催者の承認が必要」となる。重要な点として、検出機能はすべてのテナントでデフォルト有効——管理者が何もしなくても有効になる。
ただし、Microsoftも認めているように、ボットの挙動によっては検出をすり抜けるケースがある。これは「完璧なシールド」ではなく、「ガバナンスの起点」と理解するのが正しい。
なぜこれが「ただの技術設定」ではないのか
AIミーティングボットの本質的なリスクを整理する。
Read.aiのようなツールは、単に文字起こしをするだけではない。要約・アクションアイテム抽出・話者識別・センチメント分析——これらすべてを行い、Microsoft 365テナントの外部にあるクラウドプラットフォームへ同期する。
そのデータは:
- ボット運営者のプライバシーポリシーに従って管理される(自社ポリシーではない)
- 自組織が承認していない法域のサーバーに保存される可能性がある
- ボットを設定した人物(自社社員かもしれないし、外部参加者かもしれない)がアクセスできる
Teamsの会議では何が話されているか。契約前の暫定見積もり、人事評価の議論、役員の戦略セッション、法務レビュー——これらがすべて「外部クラウドの議事録」として存在することになる。
実務での活用ポイント——管理者が5月前にやるべきこと
技術設定は30分で終わる。問題はその前の「ポリシー決定」だ。以下の5つの問いに答えてからTeams管理センターを開くこと。
① 自組織は会議録音・文字起こしについて何を決めているか すでに社内規定があれば、AIボットもその延長として扱える。なければ今が整備の機会だ。
② サードパーティAIツールの利用を完全禁止するか、条件付きで認めるか 禁止一択は必ず抜け穴を生む。「認可済みツールリスト方式」で合法的な使用経路を確保しつつ、非認可ボットをブロックする構造が現実的だ。
③ 主催者の判断に任せるのか、テナント全体で統一するのか 機密度の高い会議と日常的な進捗会議では要件が異なる。会議の種別・部門別のポリシー設計を検討する。
④ 外部参加者が持ち込むボットはどう扱うか ゲストリンク経由で外部から参加したボットが最もリスクが高い。ゲスト参加者のボット持ち込みを制限する設定を優先的に検討する。
⑤ インシデント発生時の対応手順は決まっているか 「未承認ボットが入室していた」と後から発覚したとき、誰が何を確認してどこへ報告するかを事前に決めておく。
筆者の見解
この機能は、Teamsに長らく必要とされていたものだ。「気づいたら録音されていた」という状況は、ガバナンス不在の典型であり、コンプライアンス的にも見過ごせない。Microsoftが検出機能をデフォルト有効で展開する判断は評価したい。
一方で、この機能の価値はポリシー決定の質に依存するという点を強調したい。「とにかく全部ブロック」でも「とにかく全部許可」でも、どちらもガバナンスではなく「当て推量」に過ぎない。技術設定の前に組織としての意思決定がある——この順番が守れる組織とそうでない組織の差が、5月以降に可視化されるだろう。
日本企業の現場では、「禁止すれば安全」という発想が根強い。しかし禁止アプローチは必ず失敗する。禁止されたユーザーは抜け道を探し、管理されないシャドーITが増えるだけだ。正しいアプローチは「公式に安全な使用経路を提供し、非公式経路を検出・制限する」こと。今回の機能はまさにその後者を担う。前者——つまり承認済みのAI活用パスを社内に整備する——はIT部門の宿題として残る。
AIが会議に参加することの是非ではなく、誰が、どのAIを、どの条件で使うかを組織が決める——その当たり前の問いに向き合う機会として、この展開を活用してほしい。
出典: この記事は Teams Bot Detection Policy Playbook: Prepare for May 2026 の内容をもとに、筆者の見解を加えて独自に執筆したものです。