Microsoft Defender、9ヶ月間にわたるEntra IDログインイベント欠落を3ヶ月後に開示——セキュリティ製品の品質に深刻な疑問

Microsoft Defenderで9ヶ月間のセキュリティテレメトリ欠落が発覚 Microsoftは2026年3月16日、メッセージセンター投稿(MC1253510)にて、Microsoft Defender for Cloud Apps(MDA) において2025年2月17日から11月17日までの約9ヶ月間、Entra IDのログインイベントが正常に取り込まれていなかったことを明らかにした。 何が起きたのか 2025年2月17日に導入されたコードの不具合により、Entra IDログインイベントの一部がMDAポータルへ流入しなくなった。Microsoftは2025年11月30日に修正を展開し、「影響を受けたすべてのEntra IDログインイベントの処理が復元された」としている。 データ自体はMicrosoftのサーバー上に保持されており、Entraポータルや高度なハンティングのEntraSignInEventsテーブルからはアクセス可能だったという。しかし問題は、MDAへデータを供給するパイプラインが機能していなかった点にある。 影響を受けた機能は以下のとおりだ。 アクティビティの表示・アラート 高度なハンティング(Advanced Hunting) 異常検知(Anomaly Detection) Microsoft Sentinelとの統合(MDAデータパス経由) ファイルポリシー評価 つまり、ユーザーのサインイン行動を監視・分析するためにMDAを利用している組織が享受すべき機能のほぼ全域が、9ヶ月にわたって正常に動作していなかったことになる。 なぜ深刻なのか クラウドサービスで短期的な障害が発生することは珍しくない。しかし9ヶ月という期間は到底「短期間」とは言えない。この長さは、データパイプラインに十分な監視が欠けていたか、監視はあっても誰も対応しなかったかのいずれかを示唆しており、どちらの解釈もセキュリティ製品として看過できない。 MDAはまさに「異常なサインインを検知し、組織を守る」ために導入される製品だ。その製品がテレメトリを正しく取得できていなければ、攻撃者はアラートを発生させることなく活動できてしまう。セキュリティ製品における不完全なテレメトリは、単なる不便ではなく根本的な機能不全を意味する。 開示タイミングにも疑問 さらに問題を深刻にしているのが、開示のタイミングだ。修正は2025年11月30日に完了していたにもかかわらず、顧客への告知は2026年3月16日——修正から約3ヶ月半後まで行われなかった。 Microsoftは「透明性とサービス信頼性へのコミットメントの一環」としての開示だと説明しているが、14週間もの遅延を「透明性」と呼ぶのには無理がある。 特に深刻なのは、2025年2月〜11月の間にMDAのサインインデータを使ってセキュリティ調査・コンプライアンスレビュー・監査対応を行った組織だ。それらの調査結果の妥当性は今や根本から問い直す必要がある。 組織が取るべき対応 Microsoftは「顧客側での追加対応は不要」としているが、それはパイプラインの修正という意味に限られる。実際には以下の対応を検討すべきだろう。 2025年2月〜11月の調査結果の再検証: この期間にMDAデータを基に行ったインシデント対応や監査結果は、Entraポータルの生データと照合して妥当性を確認する Entra IDの生ログとの突き合わせ: EntraSignInEventsテーブルは影響を受けていないため、そちらで不審なサインインが見落とされていないか確認する 今後のモニタリング強化: MDAのデータ取り込みが正常に機能していることを定期的に検証する仕組みを検討する Microsoftはここ数年、セキュリティ強化を最優先課題として大々的にアピールしてきた。今回の件は、その取り組みが製品品質の全域に行き渡っているかどうかについて、改めて厳しい目を向けさせるものとなっている。 元記事: New Microsoft Defender Revelation Reopens Troubling Quality Questions

March 27, 2026 · 1 min · 胡田昌彦

OpenAI、AIの悪用・安全リスクを対象にした「Safety Bug Bounty」プログラムを開始

OpenAI、AI安全性に特化したバグバウンティプログラムを発表 OpenAIは、AIシステムの安全性リスクを専門に対象とした「Safety Bug Bounty(セーフティ・バグバウンティ)」プログラムを新たに開始した。従来のソフトウェアの脆弱性報告に加え、AI特有のリスクを体系的に発見・報告できる仕組みを整備した形だ。 何が対象になるのか 今回のプログラムが特徴的なのは、一般的なシステム脆弱性だけでなく、AIならではのリスクを明示的に対象としている点だ。具体的には以下が含まれる。 AIの悪用(AI Abuse): モデルを意図的に有害なコンテンツ生成や違法行為に誘導するケース プロンプトインジェクション(Prompt Injection): 悪意ある入力によってモデルの指示を書き換える攻撃手法 エージェント型AIの脆弱性(Agentic Vulnerabilities): ツール呼び出しや自律的タスク実行を持つAIエージェントに固有のリスク データ流出(Data Exfiltration): モデルを経由して機密情報が外部に漏えいするシナリオ AIエージェントは近年急速に普及しており、メール送信・コード実行・ファイル操作など実世界に影響を与える操作を自律的に行う。そのため、従来のWebアプリとは異なる攻撃面(アタックサーフェス)が生まれており、セキュリティコミュニティからの知見を取り込む意義は大きい。 なぜ今このプログラムが重要か 生成AI(Generative AI)の急速な普及に伴い、AIシステムへの攻撃手法も高度化している。特に日本でもChatGPTをはじめとするAIツールの業務利用が拡大するなか、プロンプトインジェクションによる情報漏えいや、AIエージェントを悪用したソーシャルエンジニアリングのリスクは現実的な脅威となりつつある。 OpenAIがバグバウンティの対象を「AIの安全性」まで広げた今回の取り組みは、業界全体のセキュリティ基準を引き上げるうえで注目に値する。GoogleやMicrosoftなど他の大手AI企業も同様の取り組みを強化しており、AI安全性をめぐる競争と協調が同時進行している状況だ。 セキュリティ研究者への影響 バグバウンティプログラムはセキュリティ研究者にとって、正規の手続きでAIシステムの脆弱性を報告できる公式な窓口となる。報奨金の詳細はOpenAIの公式ページで確認できる。AIセキュリティに関心を持つ研究者にとって、新たなキャリアやコントリビューションの機会となりそうだ。 AIが社会インフラに組み込まれていく中で、その安全性を担保するための「ホワイトハット」コミュニティの重要性はますます高まっている。 元記事: Introducing the OpenAI Safety Bug Bounty program

March 27, 2026 · 1 min · 胡田昌彦

OpenAIが「モデル仕様書」の策定アプローチを公開——安全性・自由・説明責任のバランスをどう取るか

OpenAIは、自社のAIモデルがどのように振る舞うべきかを定めた公開フレームワーク「モデル仕様書(Model Spec)」の策定アプローチについて詳しく解説した。 モデル仕様書とは何か Model Specは、ChatGPTやAPIを通じて提供されるOpenAIのAIモデルが、さまざまな状況でどのように判断・行動するかを規定した文書だ。単なる内部ガイドラインではなく、一般に公開されることで外部からの検証や議論が可能になっている点が特徴的だ。 OpenAIによれば、この仕様書は「モデルへの明示的な価値観の埋め込み」を目指したものであり、プロンプトだけでは制御しきれないAIの判断軸を体系的に定義しようという試みだという。 安全性・自由・説明責任の三角形 仕様書の設計において最も難しいのが、互いに緊張関係にある3つの要素のバランスを取ることだ。 安全性(Safety): 有害なコンテンツの生成や悪用を防ぐための制約 ユーザーの自由(User Freedom): 正当なユースケースを制限しすぎないための柔軟性 説明責任(Accountability): 誰がどのような条件でモデルを使っているかの透明性 OpenAIはこの3つが単純に並立するものではなく、コンテキストに応じて動的に優先順位を変える必要があると認めている。たとえば、一般ユーザー向けのChatGPTと、医療・法律専門家向けのAPIでは同じ質問に対して異なる対応が求められる場面がある。 「オペレーター」と「ユーザー」の概念 Model Specが導入した重要な概念の一つが、「オペレーター(Operator)」と「ユーザー(User)」の区別だ。オペレーターとはAPIを通じてOpenAIのモデルを自社サービスに組み込む企業・開発者を指し、エンドユーザーとは異なる信頼レベルと権限が付与される。 この階層構造により、オペレーターは自社プロダクトの用途に合わせてモデルの挙動を一定範囲でカスタマイズできる一方、OpenAIが定めた絶対的な制約(いわゆる「ハードリミット」)は誰も上書きできない仕組みになっている。 公開することの意義 Model Specをパブリックドキュメントとして公開した背景には、AI開発における透明性の確保という戦略的な判断がある。外部の研究者やジャーナリスト、規制当局がOpenAIのモデルが何を目指して設計されているかを確認できるようにすることで、「ブラックボックス批判」に応えようとしている。 日本でも2024年のAI安全サミット以降、AIシステムの透明性と説明責任を求める議論が活発化しており、こうした仕様書の公開は国際的なAIガバナンスの文脈でも注目を集めている。 今後の課題 モデル仕様書はあくまで文書であり、AIが実際にその通りに振る舞うかどうかの検証は別の問題だ。「仕様書に書いてあること」と「モデルが実際に示す行動」の乖離をいかに最小化するかが、今後のトレーニング手法や評価フレームワークの大きな課題となる。OpenAIはこの取り組みを継続的に更新・改善していくとしており、AI安全性研究の一分野として今後も注目されるテーマとなりそうだ。 元記事: Inside our approach to the Model Spec

March 27, 2026 · 1 min · 胡田昌彦

LLM量子化を基礎から理解する——インタラクティブ解説記事が話題

LLMの量子化(Quantization)を基礎から理解する エンジニアのSam Roseが、大規模言語モデル(LLM)の量子化(Quantization)について、インタラクティブな図解を豊富に盛り込んだ解説記事を公開した。本人が「これまで書いた中で最高の記事かもしれない」と語るほどの力作だ。 量子化とは何か 量子化とは、モデルの重みパラメータを表現する数値の精度を下げることで、モデルのサイズを削減する技術だ。たとえば32ビット浮動小数点(float32)で保存されていた値を、8ビットや4ビットの整数に変換することで、メモリ消費量を大幅に削減できる。これにより、本来は高性能なGPUを必要とするモデルを、一般的なPC環境やスマートフォンでも動作させることが可能になる。 記事ではまず、浮動小数点数がバイナリでどのように表現されているかをインタラクティブなツールで視覚的に説明しており、符号ビット(S)・指数部(Exponent)・仮数部(Significand)の役割がひと目でわかる構成になっている。 「スーパーウェイト」の存在が量子化を難しくする 記事の中で特に注目すべきは、外れ値(Outlier Values)に関する解説だ。通常、LLMの重みパラメータはほぼ均一な小さい値の分布に収まるが、ごく一部に通常の分布から大きく外れた値が存在する。Appleはこれを「スーパーウェイト(Super Weight)」と呼んでいる。 興味深いことに、このスーパーウェイトがモデルの品質に与える影響は甚大で、たった1つのスーパーウェイトを削除しただけでモデルが意味不明な出力をするようになることもあるという。なぜこのような外れ値が生じるのかは現時点では解明されていない。 このため、実用的な量子化の実装では、外れ値を別テーブルに保存したり、そもそも量子化しないといった特別な処理を施すことがある。 量子化はどれほど精度に影響するか Sam Roseはパープレキシティ(Perplexity)とKLダイバージェンス(KL Divergence)という2つの指標を用いて、量子化がモデル精度に与える影響を定量的に示した。 llama.cppのパープレキシティ計測ツールとGPQAベンチマークを使い、Qwen 3.5 9Bモデルで異なる量子化レベルを比較した結果は以下の通り: 16bit → 8bit:ほぼ精度劣化なし 16bit → 4bit:劣化はあるが、元モデルの約90%の精度を維持 この結果は、ローカル環境でLLMを動かす際に4bit量子化モデルを選択することが、実用上は十分に妥当な選択肢であることを示している。 日本での実用的な意味 国内でもllama.cppやOllamaを使ったローカルLLM実行は人気が高まっており、量子化モデルのGGUF形式ファイルはHugging Faceから多数公開されている。本記事は、どの量子化レベルを選ぶべきか判断する際の理論的な背景として非常に参考になる。 インタラクティブな図解とともに量子化の原理を体系的に学べる本記事は、LLMの内部構造に興味を持つエンジニアにとって必読の内容といえるだろう。 元記事: Quantization from the ground up

March 27, 2026 · 1 min · 胡田昌彦

Mistralがオープンソースの音声生成モデル「Voxtral TTS」を公開——スマートウォッチにも載る軽量設計でElevenLabsやOpenAIに挑む

フランスのAI企業Mistralは2026年3月26日、新しいオープンソースのテキスト読み上げ(TTS)モデル「Voxtral TTS」を公開した。音声AIアシスタントや企業向けカスタマーサポートなどの用途を想定しており、ElevenLabs、Deepgram、OpenAIなどの音声AI分野の主要プレイヤーとの競争に本格的に参入する形となる。 9言語対応・5秒のサンプルで声を再現 Voxtral TTSは英語・フランス語・ドイツ語・スペイン語・オランダ語・ポルトガル語・イタリア語・ヒンディー語・アラビア語の9言語をサポートする。特筆すべきは、わずか5秒未満の音声サンプルからカスタムボイスを生成できる点だ。微妙なアクセント、抑揚、イントネーション、話し方の癖といった特徴を捉えることができ、言語を切り替えても声の個性を維持する。吹き替えやリアルタイム翻訳といったユースケースにも有効だ。 Mistral AIでサイエンスオペレーション担当VPを務めるPierre Stock氏は「顧客から音声モデルの要望が続いていた。スマートウォッチやスマートフォン、ラップトップといったエッジデバイスにも載る小型モデルを構築した。コストは他のどの製品の何分の一かで、性能は最先端レベルだ」とTechCrunchに語った。 エッジ推論を意識したリアルタイム性能 モデルはMinistral 3Bをベースとしており、軽量ながらリアルタイム処理に最適化されている。500文字・10秒の音声生成におけるTTFA(最初の音声出力までの時間)は90ミリ秒、リアルタイムファクター(RTF)は6倍——つまり10秒分の音声をわずか約1.6秒でレンダリングできる。 この性能はオンデバイス推論を重視する日本のIoT・スマートデバイス市場でも注目される可能性がある。スマートスピーカーや産業用ロボット、コールセンター向け音声自動応答など、低遅延が求められる場面への適用が考えられる。 音声プラットフォームの完全統合を目指す Mistralは2026年初頭に大量バッチ処理向けとリアルタイム低遅延向けの2種類の音声認識(文字起こし)モデルをリリース済みだ。今回のVoxtral TTSにより、認識から生成までをカバーする音声プロダクトのフルスイートを目指す戦略が鮮明になった。 Stock氏は「音声・テキスト・画像といったマルチモーダルな入出力ストリームを扱えるエンド・ツー・エンドのプラットフォームを構築する計画だ。エージェンティックシステムにオーディオ入出力を統合することで、より豊富な情報を扱えるようになる」と述べた。 Mistralの差別化戦略はオープンソースとカスタマイズ性にある。企業がモデルを自社ニーズに合わせてファインチューニングできる点は、クローズドなAPIサービスでは難しい柔軟性を提供する。音声AIの商用活用を検討している企業にとって、コスト・カスタマイズ・オープンソースを三拍子揃えたVoxtral TTSは有力な選択肢となりそうだ。 元記事: Mistral releases a new open source model for speech generation

March 27, 2026 · 1 min · 胡田昌彦

OpenAI、Codexにプラグイン機能を導入——Slack・Figma・Notionなど主要ツールと連携可能に

OpenAI、Codexにプラグイン機能を導入 OpenAIは、AIコーディングアシスタント「Codex」にプラグイン機能「Codex Plugins」を新たに追加した。これにより、開発者は普段使いのツールとCodexをシームレスに連携させ、開発ワークフローを大幅に効率化できるようになる。 主要ツールとの統合が一気に実現 公式プラグインディレクトリには、ビジネス・開発現場でよく使われるサービスが早速ラインナップされている。 Slack — チームコミュニケーションと連携し、会話の文脈を踏まえたコード生成や質問対応が可能に Figma — デザインファイルを参照しながら、UIコンポーネントのコード生成をよりスムーズに Notion — ドキュメントやWikiの情報をもとにコーディング支援 Gmail — メールの内容を踏まえた自動化スクリプトや返信文の生成などに活用 こうした統合は、これまで開発者が手動でコンテキストをコピー&ペーストしていた手間を省き、AIアシスタントが直接必要な情報にアクセスできる環境を整える。 開発ワークフローへの影響 CodexはOpenAIが提供するコーディング特化モデルであり、GitHub Copilotなど他のAIコーディングツールと市場で競合している。プラグインエコシステムの構築は、単なるコード補完にとどまらず、「開発に関わるあらゆるツールの司令塔」としてのポジションを狙う戦略とみられる。 日本の開発現場でもSlackやNotionの利用は広く普及しており、これらとの連携強化は国内ユーザーにとっても恩恵が大きい。特にドキュメント駆動開発やデザイン・エンジニアリング連携を重視するチームには注目の機能となるだろう。 プラグインの利用方法 利用者はCodexの公式プラグインディレクトリからプラグインを検索・インストールし、各サービスのアカウントと連携することで機能を有効化できる。今後もパートナー企業との連携拡大が見込まれており、対応サービスは順次増加する予定だ。 AIツールの「統合ハブ化」は業界全体のトレンドとなっており、OpenAIのこの動きは競合他社に対する重要な差別化要因になりうる。 元記事: OpenAI launches Codex Plugins to streamline developer workflows

March 27, 2026 · 1 min · 胡田昌彦

AnthropicがAIブラックリスト訴訟でペンタゴンに勝訴——連邦裁判所が一時差し止め命令

AnthropicがAIブラックリスト訴訟でペンタゴンに勝訴 AIスタートアップのAnthropic(Claude開発元)が、米国防総省(ペンタゴン)を相手取った法廷闘争で重要な勝利を収めた。連邦裁判所の裁判官は、国防総省によるAnthropicのブラックリスト入りを一時的に差し止める命令を下した。 何が起きたか 国防総省はAnthropicを政府調達の対象外とするブラックリストに加える動きを見せていたが、連邦裁判官はこの措置が憲法修正第1条(言論の自由)への違法な報復にあたると判断。差し止め命令を発令し、審理が続く間はブラックリスト入りを禁止した。 背景 Anthropicは2021年にOpenAIの元幹部らが設立したAI安全研究企業で、大規模言語モデル「Claude」シリーズを開発している。近年、米政府機関へのAI導入が加速する中、AI企業と連邦機関との間の緊張関係が高まっていた。 今回の件は、AI企業が政府との関係において言論・表現の自由を根拠に法的保護を求めた稀有なケースとして注目される。裁判所が修正第1条違反の可能性を認めたことは、AIをめぐる政府とテック企業の関係に新たな法的枠組みを示す可能性がある。 日本への影響と示唆 日本でも政府機関でのAI活用が急速に進んでおり、デジタル庁や各省庁がLLMの業務導入を進めている。米国でのこうした法廷闘争は、AI企業と政府機関の関係をめぐるグローバルな議論に影響を与えるものとして、日本のAI政策関係者も注視すべき事例だ。 差し止め命令はあくまで一時的なものであり、本訴訟の行方は引き続き注目される。 元記事: Anthropic just won a major legal battle against the Pentagon

March 27, 2026 · 1 min · 胡田昌彦

DeepSeek、次世代マルチモーダルAI「V4」を間もなく公開か——中国の国家戦略とも連動

DeepSeek V4、マルチモーダル対応で近日公開へ 中国のAIスタートアップ DeepSeek(深度求索)が、次世代大規模言語モデル「V4」のリリースを間近に控えていることが、フィナンシャル・タイムズ(FT)の報道で明らかになった(2026年2月27日付)。 テキスト・画像・動画を統合するマルチモーダルモデル FTが入手した複数の情報筋によると、V4はテキスト生成にとどまらず、画像・動画の生成・理解も可能なマルチモーダルモデルとして設計されている。注目すべきは、中国の半導体メーカーであるHuawei(華為)とCambricon(寒武紀)の最新チップ向けに最適化が施されている点だ。米国の輸出規制によりNVIDIA製GPUの入手が制限される中、国産チップとの協業は中国AI産業の自立化戦略の一環とも読める。 リリース時期は、中国の年次重要政治行事である「両会」(全国人民代表大会・全国人民政治協商会議)の開幕(3月4日)に合わせて設定されたとされる。DeepSeekを「国家AIの旗手」として位置づける政治的な演出とも見られており、中国政府のAI振興戦略と密接に絡み合っている。 V3が起こした「AIスプートニク・ショック」 DeepSeekが世界的に注目を集めたのは、2025年1月に公開した推論モデルR1がきっかけだ。米国トップモデルに匹敵する性能を、はるかに少ない計算コストで実現したとして、シリコンバレーに衝撃を与えた。その影響はSAP社のコンサルタントが「1957年のスプートニク打ち上げに相当する」と評するほどだった。 その後DeepSeekは大型モデルのリリースを控え、段階的なアップデートにとどめていた。その間にAlibaba(阿里巴巴)などの中国競合他社が低コスト・オープンソースAIの需要を取り込んでいたとFTは指摘している。 オープンソース公開の可否も焦点 V4がオープンソースとして公開されるかどうかは現時点では不明だが、前モデルの公開戦略が世界中の開発者コミュニティで高い評価を得たことを踏まえると、引き続き注目される。日本国内でも、DeepSeekのモデルをオンプレミスや自社クラウドで動かす企業・研究機関が増えており、V4の動向は国内AI開発者にとっても無視できない情報だ。 Andrew Ng「AGIはまだ数十年先」 これとは別に、AI研究の第一人者であるAndrew Ng氏(DeepLearning.AI創設者、元Google Brain設立者)は先週、「人間と同等の知的能力を持つAGI(汎用人工知能)の実現には、まだ数十年かかる」と述べた。同氏は「トラックの運転を学ぶ、博士論文を書くといった人間並みの知的作業」をAGIの定義とした上で、「近づいてはいるが、まだ非常に遠い」との見解を示している。DeepSeekのような効率化の進展があっても、AGIへの道のりはまだ長いということだろう。 V4の正式発表がいつになるか、またどのようなライセンスで提供されるかについては、続報を待ちたい。 元記事: DeepSeek Poised to Unveil Latest AI Model — V4 imminent

March 27, 2026 · 1 min · 胡田昌彦

OpenAI・Anthropic・xAIのオフィス前で約200名がデモ——高度AI開発の一時停止を要求

OpenAI・Anthropic・xAIのオフィス前で約200名がデモ——高度AI開発の一時停止を要求 サンフランシスコで、OpenAI・Anthropic・xAIのオフィス前に約200名が集結し、高度なAI開発の一時停止を求めるデモ活動が行われた。参加者たちはAI業界の急速な発展に対する深刻な懸念を訴え、各社のオフィス前に次々と姿を現した。 各社前でのデモの様子 OpenAIのオフィス前では、ChatGPTをはじめとする生成AIサービスの商業展開スピードへの批判が中心となった。参加者の多くは「技術的な安全性が十分に検証される前に、製品が市場に投入されている」という危機感を共有していたという。 Anthropicのオフィス前に集まったデモ参加者は、特に「自己改善するAI(Self-Improving AI)」のリスクに強く警鐘を鳴らした。自己改善型AIとは、AIシステムが自律的に自身のアルゴリズムや能力を向上させていく仕組みを指し、AGI(汎用人工知能)への到達経路として研究が進んでいる領域でもある。参加者たちは無条件の開発停止ではなく、安全性が担保されるまでの条件付き開発停止を要求した点が注目される。 ElonMusk率いるxAIのオフィス前でも抗議活動が展開された。xAIはGrokと呼ばれる大規模言語モデルを開発しており、OpenAIとの競合関係でも知られている。 「AIの安全性」をめぐる市民運動の広がり こうした草の根的なAI反対運動は近年世界各地で広がりを見せており、今回のサンフランシスコでのデモもその流れの一環と見られる。2023年には著名な研究者や技術者が署名した「AI開発の6カ月間停止」を求める公開書簡が話題を呼んだが、今回の運動はより一般市民を巻き込んだ形での抗議活動として注目を集めた。 日本でも、AI規制のあり方については政府・産業界・学術界で活発な議論が続いており、2024年にはAI事業者ガイドラインが策定された。国際的なAI開発競争が激化する中、「安全性と革新のバランス」をどう取るかは、日本においても重要な政策課題となっている。 AI企業側の反応 各社は今回のデモに対して公式なコメントを出していないが、OpenAIとAnthropicはいずれも「AI安全性(AI Safety)」の研究部門を社内に設置しており、リスク評価を行いながら開発を進めているとしている。 AIの能力が急速に向上し続ける中、開発者・政策立案者・市民社会が一体となって安全基準を議論する場の必要性は、今後ますます高まっていきそうだ。 元記事: Protesters Rally Outside OpenAI, Anthropic, and xAI Offices Over Industry Concerns

March 27, 2026 · 1 min · 胡田昌彦

FigmaがAIエージェントベータ版を公開——キャンバス上でアセットを自律生成・編集

FigmaがAIエージェントのベータ版を公開、デザインワークフローに革新 デザインツール大手のFigmaは、AIエージェントがキャンバス上でアセットを直接生成・編集できるベータ版機能を公開した。既存のデザインシステムを活用しながら、ブランドガイドラインに沿ったビジュアルアセットをAIが自律的に扱えるようになる点が大きな特徴だ。 デザインシステムとの深い統合が差別化ポイント 今回の機能が単なる「AI画像生成」と一線を画すのは、企業ごとに構築されたデザインシステム——カラーパレット、タイポグラフィ、コンポーネントライブラリなど——をAIエージェントが参照・活用できる点にある。これにより、生成されたアセットはブランドの世界観から逸脱せず、デザイナーが手動で修正する手間を大幅に削減できる。 たとえば「このボタンコンポーネントをダークモード用に3パターン生成して」といった指示をキャンバス上で直接与えると、エージェントがデザインシステムの制約を守りながら複数の候補を自動生成するといったユースケースが想定される。 デザインワークフロー自動化の転換点 業界では今回の発表を「デザインワークフロー自動化における大きな転換点」と評価する声が多い。従来のAI生成ツールはデザインツールの外側で動作し、生成したアセットを手動でFigmaに取り込む必要があった。それが今後はキャンバス上で完結する形になる。 日本企業においても、UI/UXデザインチームの生産性向上や、デザイナー不足の課題解消につながる可能性がある。特に中小規模のプロダクト開発チームでは、専任デザイナーがいなくてもブランド品質のアセットを迅速に量産できる恩恵が大きいだろう。 現在はベータ版、今後の展開に注目 現時点ではベータ版の提供にとどまっており、一般利用可能となる時期や価格体系の詳細は明らかになっていない。Figmaはデザインと開発のギャップを埋める取り組みを継続しており、AIエージェント機能の拡充はその流れを加速するものとみられる。 生成AI(Generative AI)の波はテキストや画像生成にとどまらず、設計・制作ツールそのものの在り方を変えつつある。Figmaの今回の発表は、AIがデザイナーの「アシスタント」から「共同制作者」へと進化する時代の幕開けを象徴していると言えそうだ。 元記事: Figma introduces AI agent beta: agents can generate and edit assets directly on the canvas

March 27, 2026 · 1 min · 胡田昌彦

MCP(モデルコンテキストプロトコル)が累計9,700万インストール突破——全主要AIプロバイダーが対応済み

AIエージェント連携の「共通言語」が業界標準へ Anthropicが提唱したAIエージェント間通信の標準規格「MCP(Model Context Protocol)」が、累計インストール数9,700万件を突破した。OpenAI、Google、Mistralを含む全主要AIプロバイダーがMCP互換ツールの出荷を完了しており、群雄割拠だったエージェント連携の世界に、事実上の統一標準が誕生した形だ。 MCPとは何か MCPは、AIモデルが外部ツールやデータソースと通信するための標準プロトコルだ。たとえば、AIアシスタントがファイルシステムを読み書きしたり、外部APIを呼び出したり、別のAIエージェントと連携したりする際の「共通言語」として機能する。 これまでは各AIプロバイダーが独自の連携仕様を持っており、あるプロバイダーのエージェントに対応したツールが別のプロバイダーではそのまま使えないという断絶が生じていた。MCPはこの問題を解消するために設計されており、USB規格がデバイス接続を統一したように、AIツールエコシステムの相互運用性を実現する。 日本のエコシステムへの影響 国内でも開発者コミュニティ向けのMCP対応ツールの整備が急速に進んでいる。GitHub Copilot、VS Code拡張、各種クラウドIDEがMCPサポートを相次いで追加しており、日本語対応の開発ツールにとっても標準APIとして活用できる環境が整いつつある。 エンタープライズ向けには、社内ナレッジベースやSaaS製品とAIエージェントをMCPで接続するユースケースが注目されている。kintoneやSalesforceのようなビジネスアプリケーションとAIを繋ぐMCPサーバーの開発事例も増えており、業務自動化の加速が期待される。 標準化がもたらす開発者体験の変化 9,700万インストールという数字は、単なる普及を超えてエコシステムの臨界点(クリティカルマス)を突破したことを示している。主要プロバイダーが全社対応した今、新規のAIツール開発者はMCPへの対応をデフォルトの選択肢として考える段階に入った。 「どのモデルでも動く」ツールが作りやすくなることで、開発コストの削減とイノベーションの加速が見込まれる。AIエージェント活用を検討している企業にとっても、ベンダーロックインのリスクを低減できる点で歓迎すべき動向といえるだろう。 元記事: Model Context Protocol (MCP) crosses 97 million installs — every major AI provider ships MCP-compatible tooling

March 27, 2026 · 1 min · 胡田昌彦

OpenAIがSoraを突然終了——ディズニー10億ドル契約も消滅、同日に7つの重大発表

OpenAI、怒涛の「1日7発表」で業界を揺るがす 2026年3月25日(火)、OpenAIは業界観測者も驚く密度で複数の重大発表を一斉に行った。その中でも最も衝撃的だったのが、ビデオ生成AIアプリ「Sora」の完全終了だ。 Sora、わずか6ヶ月で幕引き Soraは2025年末にリリース直後にApp Storeトップを獲得した話題作。スタンドアロンアプリとAPIの両方が提供されていたが、OpenAIは今回「ビデオ生成事業からの撤退」を正式に発表した。 これに伴い、2025年12月に締結したとされるディズニーとの10億ドル(約1,500億円)のライセンス契約も解消される。ディズニー側は「OpenAIの判断を尊重する」と丁寧なコメントを発表したが、事実上の破談だ。社内関係者によれば、SoraはAnthropicやGoogleとの競争が激化するなか、膨大なGPUリソースを消費し続けており、経営判断として見切りをつけた模様だ。 Altman CEO、安全部門の直接管理を手放す Samuel Altman CEOは同日、安全・セキュリティチームの直接監督権限を移譲することをスタッフに伝えた。今後は資金調達、サプライチェーン構築、そして「前例のない規模でのデータセンター建設」に専念するという。 AI安全性を重視してきたOpenAIがCEO主導の安全監督体制を変更することに、業界からは賛否両論の声が上がっている。 新モデル「Spud」の初期開発が完了 Altman氏はさらに、次期主力AIモデルのコードネームが「Spud(スパッド)」であることを明かし、初期開発が完了したと述べた。GPT-4後継にあたるとみられるが、詳細なスペックや公開時期は未発表だ。 100億ドル追加調達と10億ドルの科学研究基金 OpenAIは同日、100億ドル(約1兆5,000億円)規模の追加資金調達を完了したと発表。これにより直近ラウンドの合計は約1,200億ドルに達する。 また、約1,300億ドル相当の株式を保有する「OpenAI Foundation」が正式にリーダーシップ陣容を発表し、AI主導の科学的発見のために今年だけで10億ドル以上を拠出する方針を示した。 Arm、35年ぶりに自社チップを発表 同週にはArm(アーム)も歴史的な発表を行った。チップ設計ライセンスビジネス一本で35年間成長してきた同社が、初めて自社製データセンター向けチップ「AGI CPU」を発表。136コア・3nmプロセスで構築されたAI特化プロセッサで、MetaがすでにAGI CPU採用を決定しているという。 今週のAI業界は、まるで数ヶ月分のニュースが凝縮されたかのような激動の一週間となった。OpenAIが短命に終わったSoraとともにディズニーという巨大パートナーとの関係まで清算した背景には、AnthropicやGoogleとの生存競争をにらんだ「選択と集中」戦略があるとみられる。次期モデル「Spud」の動向と、安全監督体制の変更が今後の企業姿勢にどう影響するかが注目される。 元記事: OpenAI acquired Astral and merged everything into a superapp (week of March 21-24)

March 27, 2026 · 1 min · 胡田昌彦

2026年3月AIまとめ:GPT-5.4・Gemini 3.1・Grok 4.20が同月リリース、MCPは9700万インストール突破

AI業界が「同時多発的な変曲点」を迎えた月 2026年3月は、AI業界にとって単なる「ニュースの多い月」ではなかった。モデル性能・エージェント基盤・エンタープライズ導入・規制執行という四つのトレンドが、ほぼ同時に臨界点へ達した月として記録されることになりそうだ。 フロンティアモデルが23日間で5本リリース 3月の最大のトピックは、主要ラボが足並みをそろえるように大型モデルを投入したことだ。 3月3日 — Mistral Small 4がオープンソース推論ベンチマークでトップに立つ 3月17日 — OpenAIがGPT-5.4をStandard・Thinking・Proの3バリアント同時リリース 3月20日 — GoogleがGemini 3.1 Ultraを公開。ネイティブマルチモーダル推論を搭載 3月22日 — xAIがリアルタイムWeb検索を強化したGrok 4.20を投入 3週間余りで5本のフロンティアモデルが出そろった計算になり、ラボ間の能力差はかつての「月単位」から「週単位」へと縮まった。日本企業がAI戦略の見直しサイクルを短縮しなければならない理由がここにある。 MCPが9700万インストール突破——エージェント基盤として定着 3月25日に公表されたデータによると、Anthropicが策定したModel Context Protocol(MCP)のインストール数が累計9700万件を突破した。主要AIプロバイダーがすべてMCP互換ツールを同梱するようになった現在、MCPは「実験的な標準」から「エージェントAIのインフラ」へと格上げされた。開発者コミュニティでのデファクト化が、ベンダーロックインを避けたいエンタープライズにとっても追い風となっている。 Oracle AI Database 26ai——エージェント向け「永続メモリDB」が登場 データベース側でも大きな動きがあった。OracleはAI Database 26aiを発表。AIエージェントがセッションをまたいで状態と記憶を保持できる「永続メモリ」機能と、ノーコードで社内エージェントを構築できるPrivate Agent Factoryを搭載する。RAG(検索拡張生成)ではカバーしきれなかった「エージェントの長期記憶問題」に正面から取り組んだ初のデータベース基盤として注目されている。 NVIDIA GTC 2026——エンタープライズはデモから本番へ 3月10〜14日に開催されたNVIDIA GTCは、ベンチマーク競争よりもエンタープライズのエージェント本番導入が主役となった。エージェント・オーケストレーションフレームワーク「NeMoCLAW」「OpenCLAW」のセッションが最多集客を記録し、Fortune 500企業による本番稼働事例が相次いで発表された。 またSXSWで発表されたCMO調査では、エンタープライズマーケティング予算の67%がAI専用予算を2026年に設けていることが明らかになった。 Sora APIが静かに終了——コスト問題が浮き彫りに 一方、3月24日にOpenAIはSoraのパブリックAPIを終了した。動画1分あたりの推論コストが持続不可能な水準に達したことが理由とされており、コンピュート集約型のメディア生成ビジネスモデルへの再評価を業界全体に迫る出来事となった。 規制も加速 EU AI Actが初の正式照会を発行し、米国3州がAI透明性法を可決、英国AI安全機関が3月評価を公表するなど、三大陸で規制執行ペースが明らかに上がった。 2026年3月は、AIを「試験的に使う時代」から「本番インフラとして前提とする時代」への移行を象徴する月として刻まれるだろう。 元記事: Oracle AI Database 26ai launches with persistent memory for AI agents and no-code Private Agent Factory

March 27, 2026 · 1 min · 胡田昌彦

Anthropicの次世代AI「Claude Mythos」がデータ漏洩で発覚——「前例のないサイバーセキュリティリスク」と同社認める

データ漏洩で明らかになった「ステップチェンジ」モデル AIスタートアップのAnthropicが、これまでリリースしたどのモデルよりも強力な新世代AIモデルを開発・テスト中であることが明らかになった。同社の設定ミスにより、未公開の草稿ブログ記事が一般公開状態のデータキャッシュに保存されていたことを、米経済誌Fortuneが報じた。 Anthropicのスポークスパーソンは「このモデルはAI性能におけるステップチェンジ(段階的な飛躍)を表しており、これまで構築した中で最も高性能なモデルだ」と認めた。現在は「アーリーアクセス顧客」と呼ばれる限られたグループを対象にトライアルが進められているという。 新モデルの正体——「Capybara」と「Mythos」 漏洩した草稿によると、新モデルには「Capybara(カピバラ)」という新しいモデル階層名と、「Claude Mythos(ミトス)」というコードネームが付けられていることが判明した。 Anthropicは現在、モデルを3つのサイズで展開している: Opus(最大・最高性能) Sonnet(中程度の速度と性能) Haiku(最小・最速・最安価) 草稿ブログによれば、「Capybara」はこれらの上に位置するまったく新しい階層であり、現在最上位のOpusよりもさらに大規模で高性能——その分コストも高い——とされている。 「従来の最高モデルであるClaude Opus 4.6と比較して、Capybaraはソフトウェアコーディング、学術的推論、サイバーセキュリティなどのテストで大幅に高いスコアを記録している」 同文書には「Claude Mythosのトレーニングが完了した」とも記されており、「これまで開発した中で圧倒的に最も強力なAIモデル」と表現されている。 「前例のないサイバーセキュリティリスク」という異例の警告 注目すべきは、Anthropic自身が草稿の中でこのモデルについて「前例のないサイバーセキュリティリスクをもたらす」と記述していた点だ。これはAI企業が自社モデルの危険性を自ら認めた異例の表現であり、能力と安全性のバランスをめぐる業界全体の緊張を反映している。 漏洩の経緯と対応 この漏洩を発見・検証したのは、セキュリティ企業LayerX SecurityのシニアAIセキュリティリサーチャーであるRoy Paz氏と、ケンブリッジ大学のサイバーセキュリティ研究者Alexandre Pauwels氏。Pauwels氏によれば、未公開の資産は約3,000件にのぼり、いずれもAnthropicのブログに関連するものだった。 Fortuneからの連絡を受けたAnthropicは即座にデータストアへの公開アクセスを遮断。「コンテンツ管理システムの設定における人的ミスが原因で、公開すべきでない草稿が閲覧可能な状態になっていた」と認めた。 国内への影響と今後の展望 AnthropicのClaudeシリーズはAmazon BedrockやGCP Vertex AIを通じて国内企業でも広く活用されている。Claude Mythosが正式にリリースされれば、コーディング支援や業務自動化の領域で既存モデルを大きく上回る性能が期待できる。一方で「前例のないサイバーセキュリティリスク」という表現が示すように、安全審査のプロセスも通常より慎重になるとみられる。正式発表の時期や価格体系など、詳細は今後の公式アナウンスを待つ必要がある。 元記事: Exclusive: Anthropic ‘Mythos’ AI model representing ‘step change’ in power revealed in data leak

March 27, 2026 · 1 min · 胡田昌彦

Microsoft、Azure Sphereを2031年7月31日に終了へ——移行先と影響範囲を解説

Microsoft、Azure Sphereの終了を正式発表 Microsoftは、IoTデバイス向けセキュリティプラットフォーム「Azure Sphere」を2031年7月31日をもって終了すると正式に発表した。同日をもってすべてのサービスが停止される。 終了するサービスの範囲 今回の終了(リタイアメント)によって停止するのは以下のとおり: OSおよびセキュリティアップデートの配信停止 DAA(Device Authentication and Attestation)シリコン証明書の新規発行停止 MT3620 MCUの延長サポート終了 クラウドサービス全般(デバイス管理ポータル、テレメトリ収集など) 2031年7月31日以降、既存デバイスはセキュリティパッチを受け取れなくなるため、IoTデバイスの性質上、長期稼働を前提とした製品では特に早期の対応計画が求められる。 Azure Sphereとは Azure Sphereは2018年にMicrosoftが発表したIoTセキュリティプラットフォームで、独自設計のMCU(MT3620)、Linuxベースの専用OS、クラウドベースのセキュリティサービスの3層構造で構成される。組み込み機器にエンタープライズレベルのセキュリティをもたらすというコンセプトで、製造業や産業用途を中心に採用が進んでいた。 日本でも製造業のDX推進の文脈でAzure Sphereを採用した事例があり、影響を受けるユーザーは少なくないとみられる。 移行に向けた対応 Microsoftは移行先の案内とQ&Aを公式ブログで公開している。終了まで約5年の猶予があるものの、IoT機器は製品サイクルが長く、設計・認証・量産のリードタイムも考慮すると、今から移行計画を立てることが強く推奨される。 代替候補としては、Microsoft Azure IoT HubやAzure IoT Centralといった既存のAzure IoTサービス群への移行、あるいはArmのPSA Certified対応チップやNXP・STMicroelectronicsなどのセキュアエレメント搭載MCUへの切り替えが考えられる。 まとめ 2031年という期限は一見遠く感じるが、組み込み製品の開発・保守サイクルを考えると実質的な猶予は長くない。Azure Sphereを採用している開発者・製品担当者は、公式Q&Aを確認しつつ、早期に移行ロードマップの策定に着手することを検討すべきだろう。 元記事: Azure Sphere is Retiring in 2031 - What you need to know

March 27, 2026 · 1 min · 胡田昌彦

Azure Container AppsのDynamic SessionsにMCPエンドポイント追加——AIエージェントがミリ秒起動サンドボックスでコードを安全実行

Azure Container Apps Dynamic Sessions とは Microsoftは、Azure Container AppsのDynamic Sessions機能にビルトインのMCP(Model Context Protocol)エンドポイントを追加した。これにより、AIエージェントがPython・Node.js・シェルスクリプトなどのコードを、Hyper-V隔離されたサンドボックス環境でミリ秒単位に起動して安全に実行できるようになる。 LLM(大規模言語モデル)がコードを生成し、そのコードを即座に実行して結果を返すパイプラインの構築が、これまで以上に容易になった。 主な特徴 Hyper-V による強固な分離 各セッションはHyper-Vによる仮想化で互いに完全に隔離されており、ホスト環境にも影響を与えない。信頼できないユーザー提出コードや、AIが生成したスクリプトを本番システムのリスクなしに実行できるエンタープライズグレードのセキュリティを備える。 プリウォームによるミリ秒起動 セッションプールと呼ばれる仕組みで、あらかじめウォームアップされた未割り当てセッションを大量に待機させておく。リクエストが来た時点でプールから割り当てるため、コンテナをゼロから起動するコストが不要となり、サブ秒(ミリ秒オーダー)での起動が実現する。 自動スケールと自動クリーンアップ 同時に数百〜数千セッションを手動介入なしにスケール可能。セッションはタスク完了後またはアイドルタイムアウト後に自動で破棄され、リソースが解放される。 想定ユースケース AI/LLMワークフロー: ChatGPTやClaude等が生成したコードを本番環境に触れさせることなく検証・実行 インタラクティブ開発: スクリプトやプロトタイプを使い捨て環境で素早くテスト セキュアなコード実行: ユーザー提出の任意コードを隔離環境で安全に処理 バーストワークロード: 予測困難なアクセス急増に対してセッションを自動スケールで対応 セッションプールの種類 Dynamic Sessionsには2種類のプールが用意されている。 コードインタープリタープール: Python・Node.js・シェルなどの実行環境がプリインストールされたマネージドコンテナ。LLM駆動のワークフローや安全なコード実行に最適。 カスタムコンテナープール: 独自の依存関係や実行環境が必要なケース向けに、任意のコンテナイメージを使用できる。 MCPエンドポイントとの統合で広がるAIエージェント活用 今回追加されたMCPエンドポイントにより、Claude・GPT-4・Geminiなどのモデルを組み込んだAIエージェントフレームワークから、Dynamic Sessionsのサンドボックスを標準プロトコルで呼び出せるようになった。「コード生成 → 安全な実行 → 結果のフィードバック」というループをエージェント内で完結できる点が大きな強みだ。 Azureを活用した開発者やエンタープライズシステム担当者にとって、LLMベースのコーティングエージェントや社内自動化ツールへの応用が期待される機能追加といえる。 元記事: Dynamic sessions in Azure Container Apps | Microsoft Learn

March 27, 2026 · 1 min · 胡田昌彦

Microsoft 365 E7登場か——エージェントを中核に据えた新サブスクリプションプランの全貌

Microsoft 365 E7——エージェント時代の新プランが間もなく登場 Microsoftが「Microsoft 365 E7」と呼ばれる新しいサブスクリプションプランを近く発表するとみられている。ライセンス分析の専門メディア「Directions on Microsoft」が詳細な分析を公開し、注目を集めている。 E5からの「自然な移行先」として設計 E7は、現在エンタープライズ向けの最上位プランであるMicrosoft 365 E5からの移行先として設計されているという。E5はセキュリティ・コンプライアンス・高度な分析機能を包括するプランとして広く採用されているが、E7ではそこにAIエージェント機能を中核として組み込む方向性が取られると見られている。 日本でもM365はNTTデータやアクセンチュアといった大手企業から中堅・中小企業まで幅広く導入されており、エンタープライズ向けライセンス体系の変更は国内ITコミュニティにとっても無視できない動向だ。 Agent 365 Registry——すでに数千万のエージェントが登録済み 注目すべきは、Microsoftが提供する「Agent 365 Registry」の規模だ。プレビュー段階にもかかわらず、すでに数千万のエージェントが登録されているという。Copilot Studioで作成されたカスタムエージェントや、Microsoft公式のエージェントがこのレジストリに集約されており、E7ではその管理・活用がさらに強化される見通しだ。 エージェント(Agent)とは、ユーザーの指示に基づいて自律的にタスクをこなすAIの仕組みを指す。メール返信の自動化、データ分析、社内ドキュメントの検索といった業務を代替・補助するものとして、企業ITの文脈で急速に注目度が高まっている。 価格・バンドル戦略の背景 Directions on Microsoftの分析によれば、E7の価格設定はMicrosoftのAIモデルへの投資コストを回収しつつ、顧客にとって「アップグレードする動機」を与えるように設計されているという。現行のE5に対して段階的な追加料金を課す形が有力視されており、単体のCopilot追加ライセンスよりもバンドルとして購入するほうが割安になる仕組みになる可能性がある。 これはMicrosoftがAzure OpenAIサービスやCopilotで採用してきた「バンドルによる囲い込み」戦略の延長線上にある。AIエージェントを既存のM365エコシステムに深く組み込むことで、他社製AIサービスへの乗り換えハードルを高める狙いがあるとみられる。 国内企業への影響 国内企業にとっては、まずE7の機能内容と価格を慎重に見極める必要がある。E5を導入している組織であれば、AIエージェントの活用度合いによってはE7へのアップグレードが費用対効果に見合う選択肢になりうる。一方で、エージェント活用が限定的であれば、既存のE5+個別Copilotライセンスの組み合わせを維持する判断も合理的だ。 Microsoftによる正式発表はまだなされていないが、Directions on Microsoftはリリースが「近い将来」になると予測している。国内マイクロソフトパートナー各社の動向とあわせて注目したいところだ。 元記事: Microsoft 365 E7: A New Agent-Centered Subscription Plan Expected Soon

March 27, 2026 · 1 min · 胡田昌彦

Google翻訳の「ライブ翻訳」がiOSに対応、日本も対象国に追加

Googleは、ヘッドフォンを使ったリアルタイム翻訳機能「Live translate(ライブ翻訳)」をiOSに正式展開すると発表した。またAndroid・iOS双方において、日本・フランス・ドイツ・イタリア・スペイン・タイ・イギリスを含む新たな国々へも対応を拡大する。 ヘッドフォンが即席の通訳に ライブ翻訳は、Google翻訳アプリを通じて70以上の言語に対応するリアルタイム音声翻訳機能だ。任意のヘッドフォンを接続した状態で使用でき、相手の話す言葉を即座に翻訳して耳に届ける。 特徴的なのは、翻訳精度だけでなく話者のトーンやリズムを保持する点だ。単に言葉を訳すだけでなく、話し手のニュアンスや感情も伝わるよう設計されている。 日本語話者にとっての活用シーン 今回の日本対応追加により、日本語を話す側・聞く側の両方でメリットがある。 海外旅行時: 現地のアナウンスや道案内、レストランでのやり取りをリアルタイムで理解できる インバウンド対応: 日本を訪れた外国人観光客との会話をスムーズに行える 多言語家族・コミュニティ: 異なる言語を話す家族や友人との会話の壁を下げる 使い方 利用手順はシンプルだ。 Google翻訳アプリを開く 「ライブ翻訳」をタップ ヘッドフォンを接続する iOSユーザーは今回の展開でAndroidユーザーと同様に本機能を利用できるようになる。 AI翻訳の実用化が加速 リアルタイム音声翻訳はかつてSFの世界の話だったが、AI技術の進化によって日常的なツールとして普及しつつある。Googleのライブ翻訳のような機能は、言語の壁を下げ、国際的なコミュニケーションのあり方を変える可能性を持っている。 日本では訪日外国人数が増加傾向にあり、言語サポートの需要は高まる一方だ。こうしたツールの普及が、観光・ビジネス・日常生活のさまざまな場面での多言語コミュニケーションをより身近なものにしていくだろう。 元記事: Transform your headphones into a live personal translator on iOS.

March 27, 2026 · 1 min · 胡田昌彦

EUがAI法の施行延期とヌード生成アプリ禁止を可決——開発者への猶予期間は最大2028年まで

EUがAI法の施行を大幅延期、ヌード生成アプリ禁止も追加 欧州議会は2026年3月26日、EU人工知能法(EU AI Act)の主要規定の施行期限を延期する提案を大多数の賛成で可決した。あわせて、AIを悪用したヌード画像生成アプリ(いわゆる「ヌーディファイアプリ」)の禁止を同法に盛り込む方針も承認された。 延期される主な規定と新たな期限 当初、今年8月に施行予定だった複数の規定が先送りされる見通しだ。 高リスクAIシステム(健康・安全・基本的人権に「深刻なリスク」をもたらすとされるもの)の開発者に対するコンプライアンス期限:2027年12月まで延期 玩具や医療機器など、業界固有の安全規制が適用されるAIシステム:さらに長い猶予が与えられ、2028年8月まで延期 AIが生成したコンテンツへのウォーターマーク付与を義務付ける規定:2026年11月まで延期 AIによるヌード画像生成アプリを禁止へ 改正案には、AIを使って実在の人物のヌード画像を生成するアプリの禁止も盛り込まれた。詳細な規制内容は未定だが、「ユーザーがそのような画像を生成できないよう有効な安全対策を講じているAIシステムには適用しない」とされている。 この方針の背景には、2026年初頭にイーロン・マスク氏のAIサービス「Grok」がX(旧Twitter)上で性的なディープフェイク画像を大量生成し、EU内で広く批判を浴びた出来事がある。日本でも同様のディープフェイク被害が社会問題となっており、この規制は国際的な議論に一石を投じる動きとして注目される。 法改正には加盟国との交渉が必要 欧州議会の可決はあくまで第一段階に過ぎない。EUでは欧州議会が単独で法律を変更することはできず、EU加盟27カ国の閣僚で構成される欧州理事会との交渉(三者協議)を経て最終的な法文が確定する。8月の当初期限までに正式な変更が間に合うかどうかは不透明だ。 欧州でビジネスを展開する企業への影響 EU AI Actをめぐっては、EUが自ら設定した主要ガイダンスの公表期限を守れなかったり、法律の一部を変更したりするなど、これまでも度重なる混乱があった。今回の延期決定は、欧州でAIサービスを提供する事業者にとって不確実な状況が続くことを意味する。 とはいえ、施行延期によって開発者側には準拠体制を整える時間的余裕が生まれる。特に高リスクAIシステムを手がける企業にとっては、コンプライアンス対応のロードマップを再設計する機会となりそうだ。 世界最初の包括的なAI規制法として注目されるEU AI Actは、日本を含む各国の規制当局にとっても参照点となっており、その動向は引き続き要注目だ。 元記事: EU backs nude app ban and delays to landmark AI rules

March 27, 2026 · 1 min · 胡田昌彦

米上院議員がデータセンターの電力消費量の義務的開示を求める超党派書簡を送付

超党派でデータセンターの電力消費透明化を要求 米上院議員のエリザベス・ウォーレン(民主党・マサチューセッツ州)とジョシュ・ホーリー(共和党・ミズーリ州)は3月26日、米エネルギー情報局(EIA: Energy Information Administration)に対し、データセンターの「包括的な年次エネルギー使用量の開示」を収集し、その情報を一般公開するよう求める書簡を送付した。 この動きはWiredが最初に報じたもので、両議員はEIAに対してデータセンターへの「強制的な年次報告要件の設立」を促している。書簡の中では、このデータが「電力網の正確な計画立案に不可欠」であると強調。また、今月初めに「Ratepayer Protection Pledge(電気料金支払者保護誓約)」に署名した7つのテック企業が約束を遵守しているかどうかを確認するためにも必要だと主張している。 EIAの自主的パイロット計画では不十分 EIAは同じく3月26日、テキサス州、ワシントン州、バージニア州北部、ワシントンDCでデータセンターのエネルギー使用量を評価する自主的なパイロットプログラムの開始を発表した。しかし、ウォーレンとホーリーが求めているのはこれよりも広範な、義務的なデータセンターのエネルギー消費報告だ。 立法・規制の動きが相次ぐ データセンターの電力問題をめぐっては、連邦・州の両レベルで複数の動きが起きている。 バーニー・サンダース上院議員(無所属・バーモント州)とアレクサンドリア・オカシオ=コルテス下院議員(民主党・ニューヨーク州)は、データセンターの新規建設に対するモラトリアム(一時停止)を提案する法案を提出 ホーリー議員とブルーメンタール議員(民主党・コネチカット州)は2月、データセンターに起因する電気料金上昇を抑制することを目的とした法案を提出 ニューヨーク州では新規データセンター建設を3年間停止する州法案が審議中 昨年12月には民主党議員がテック企業とデータセンター開発業者に対し、電力使用量や拡張計画についての回答を求める書簡を送付 日本への影響と背景 生成AIの急速な普及に伴い、データセンターの電力消費は世界規模で急増している。日本でも大規模データセンターの建設ラッシュが続いており、電力インフラへの影響や電気料金上昇を懸念する声は国内でも高まっている。米国での透明性確保の動きは、日本を含む各国の規制議論に影響を与える可能性がある。 今回の超党派書簡は、AI・クラウドインフラの電力消費問題が党派を超えた政策課題となっていることを示す象徴的な出来事といえる。 元記事: Senators are pushing to find out how much electricity data centers actually use

March 27, 2026 · 1 min · 胡田昌彦

AI・テクノロジーの情報を発信しています

YouTube

AI・テクノロジーの最新トレンドを動画で配信中

note

技術コラム・深掘り記事を公開中