Appleがアプリ野心を縮小、ハードウェア販売とApp Store収益に集中する戦略へ転換か

AppleのAI戦略が大きく方向転換——自社開発縮小、App Store収益化にシフト AppleがAIに関する野心的な自社開発計画を大幅に縮小し、従来の強みであるハードウェア販売と、App Storeを通じた競合他社のAIアプリからの収益獲得という現実路線に転換しつつあると、複数の報告が示している。 Apple Intelligenceの苦戦が背景に Appleは2024年にWWDCで「Apple Intelligence」を発表し、Siriの大幅強化やオンデバイスAI処理を看板機能として打ち出した。しかし実際には、期待されていた機能の多くがリリース遅延を繰り返し、競合のGoogleやMicrosoftが提供するAI体験と比べて見劣りするとの批判が続いていた。 ChatGPTやGeminiといったサービスが急速に普及するなか、Appleの独自AI技術は差別化要因としての力を発揮できていないのが現状だ。 「作るより売る」プラットフォーム戦略 注目すべきは、Appleが競合他社のAIアプリをApp Storeで積極的に展開させることで、手数料収益を得ようとしているという点だ。OpenAIのChatGPT、Google Gemini、Anthropic ClaudeなどのアプリはすでにiOSで利用可能であり、これらのアプリの課金売上の最大30%がAppleに入る仕組みになっている。 つまり、AI開発競争でトップに立てなくても、iPhoneとApp Storeというエコシステムを握っている限り、他社のAIサービスが成長するほどAppleも潤う構図だ。この戦略はAppleらしいともいえる——「土管にはなりたくないが、土管のオーナーにはなれる」という発想だ。 ハードウェアが依然として核心 Appleの売上の大半はiPhone、Mac、iPad、Apple Watchなどのハードウェアから生み出されている。AI機能はあくまでハードウェアの付加価値として位置づけ、無理にAI企業としての地位を確立しようとするよりも、既存のビジネスモデルを堅守する判断は、株主目線では合理的ともいえる。 日本市場への影響 日本においてもiPhoneのシェアは依然として高く、App Store経由のAIサービス利用者も多い。Apple Intelligenceの日本語対応は現時点でも限定的であり、Appleが自社AI開発に注力しない方針を強めるとすれば、日本語ユーザーにとってはむしろサードパーティのAIアプリとの連携強化に期待が集まる展開になりそうだ。 今後のWWDCや製品発表で、AppleがAI戦略についてどのようなメッセージを打ち出すかが注目される。 元記事: Report: Apple scales back its AI ambitions and sticks to selling hardware

March 29, 2026 · 1 min · 胡田昌彦

パッチチューズデーがWindows機能アップデートの魅力を奪っている

パッチチューズデーの機能追加ラッシュがWindowsアップデートの価値を希薄化 Microsoftはここ数年、毎月第2火曜日に配信される「パッチチューズデー(Patch Tuesday)」の累積更新プログラムに、セキュリティ修正だけでなく新機能まで詰め込む戦略を取り続けている。この方針が、かつてWindowsユーザーにとって年に一大イベントだった「機能アップデート(Feature Update)」の存在意義を損なっているとして、ユーザーや技術メディアの間で批判が高まっている。 機能アップデートの歴史的な役割 Windows 10の時代から、Microsoftは年2回(春と秋)の大型機能アップデートでOSの目玉機能を一括投入してきた。「Windows 10 Anniversary Update」「Fall Creators Update」など、それぞれにブランド名が付けられ、ユーザーは新機能の発表を心待ちにしていた。Windows 11でも同様のサイクルが続き、「22H2」「23H2」といったバージョンが年1回の節目となっていた。 月次更新への機能移行が加速 ところが近年、CopilotのUI改善、スタートメニューの変更、タスクバーの新機能、ファイルエクスプローラーの更新など、従来なら機能アップデートで提供されていたような変更が月次パッチで次々と配信されるようになった。その結果、年1〜2回の機能アップデートが来る頃には「既に知っている機能がほとんど」という状況になり、リリースノートを読んでも驚きや興奮がない、という声が多く聞かれる。 メリットとデメリットの両面 この方針転換には一定の合理性もある。機能を小さな単位で順次展開することで、大型アップデートによる不具合リスクを分散できる。企業の IT 管理者にとっては、段階的なロールアウトで検証しやすいという利点もある。 一方で、消費者向けには「Windowsが進化している感覚」が薄れるという問題がある。スマートフォンのOSアップデートが年に一度の大イベントとして扱われるのと対照的に、Windowsの更新は「いつの間にか変わっていた」という印象になりつつある。 日本のエンタープライズへの影響 日本の大企業では、Windowsの機能アップデートに合わせて社内検証・展開スケジュールを組むケースが多い。月次更新に機能が混入することで、「いつ何が変わったのか」の把握が困難になり、サポートデスクへの問い合わせ増加や、予期せぬ互換性問題が発生するリスクも懸念される。 Microsoftがこの方向性を維持するのか、それとも機能アップデートの価値を再定義するのか——Windows 11の次世代展開に向けた戦略変更が注目される。 元記事: Patch Tuesday is killing the excitement for Windows feature updates

March 29, 2026 · 1 min · 胡田昌彦

WordPressプラグイン「Smart Slider 3」に深刻な脆弱性——80万サイト以上に影響、任意ファイル読み取りが可能に

Smart Slider 3に任意ファイル読み取りの脆弱性——80万超のWordPressサイトに影響 WordPressの人気プラグイン「Smart Slider 3」に、認証済みユーザーがサーバー上の任意ファイルを読み取れる脆弱性(CVE-2026-3098)が発見された。影響を受けるのはバージョン3.5.1.33以前のすべてのバージョン。現在このプラグインは80万以上のサイトで使用されており、パッチ未適用のサイトは推定50万以上に上ると見られている。 脆弱性の仕組み Smart Slider 3は、ドラッグ&ドロップ操作で画像スライダーやコンテンツカルーセルを作成できるプラグインとして広く普及している。今回の問題は、プラグインのAJAXエクスポート機能におけるケイパビリティチェックの欠如に起因する。 具体的には、actionExportAll関数がファイルの種類や送信元の検証を行っていないため、サブスクライバー(一般会員)レベルの権限しか持たないユーザーでも、PHPファイルを含む任意のサーバーファイルをエクスポートアーカイブに追加できてしまう。 WordPressセキュリティ企業Defiant(Wordfenceの開発元)の脆弱性研究者イシュトバン・マルトン氏は次のように説明している。 「この関数は脆弱なバージョンにおいて、ファイルの種類やファイルの送信元をチェックしない。画像や動画だけでなく、.phpファイルも含めてエクスポートできてしまう。結果として、サブスクライバーのような最小限のアクセス権しか持たない認証済み攻撃者が、wp-config.phpを含むサーバー上の任意ファイルを読み取ることが可能になる」 wp-config.phpにはデータベースの認証情報や暗号化キー・ソルトが含まれており、これが漏洩した場合はデータベースへの不正アクセスやサイトの完全乗っ取りにつながる危険性がある。なおノンス(CSRF対策トークン)が存在するものの、認証済みユーザーであれば取得可能なため、攻撃の抑止にはならない。 発見から修正までの経緯 2026年2月23日: 研究者のドミトリー・イグナティエフ氏がWordfenceに報告 2026年3月2日: プラグイン開発元のNextendwebが報告を承認 2026年3月24日: バージョン3.5.1.34でパッチを提供 深刻度は「中(Medium)」と評価されているが、これは認証が必要という条件によるもの。会員登録機能を持つECサイトやメディアサイトなど、ユーザー登録を受け付けているサイトでは攻撃リスクが高い。 対応方法 WordPress.orgの統計によると、過去1週間でのダウンロード数は30万件超。それでも全体のインストール数(80万以上)を考えると、依然として多数のサイトが脆弱なバージョンのままとなっている。 現時点では積極的な悪用は確認されていないが、証明済みのPoCエクスプロイトが存在するため、攻撃が始まる前に速やかにバージョン3.5.1.34以降へアップデートすることが強く推奨される。 WordPressサイトの管理者は、管理画面の「プラグイン」→「更新」から即座にアップデートを適用してほしい。 元記事: File read flaw in Smart Slider plugin impacts 500K WordPress sites

March 29, 2026 · 1 min · 胡田昌彦

Wikipedia、AI生成コンテンツを全面禁止——例外は翻訳と軽微な校正のみ

WikipediaがAI生成コンテンツを禁止——7,100万記事を抱える百科事典の決断 インターネット最大の百科事典であるWikipediaが、大規模言語モデル(LLM)を使ったコンテンツの生成・書き直しを全面禁止するポリシーを導入した。英語版Wikipediaには現在7,100万件以上の記事が掲載されており、その品質を守るための措置だ。 禁止の背景——ボランティア編集者たちの懸念 Wikipediaは、LLMの利用が同サイトの核心的な原則を「しばしば侵害する」として禁止を明文化した。この決定はWikipediaのボランティア編集者コミュニティによる投票で支持されたものだ。 AI利用はWikipedia編集者の間で長らく論争の種となっていた。AIが生成する文章は表面上は流暢でも、引用された出典に基づかない内容を含んだり、文章の意味を微妙に変えてしまうリスクがある。新ポリシーはこの点を明確に指摘している。 「LLMはあなたが求めた以上のことをして、引用された出典で裏付けられていない内容に文章の意味を変えてしまうことがあるため、注意が必要です」 例外として認められる2つのユースケース 全面禁止とはいえ、以下の2つのケースに限りAIの利用が認められている。 翻訳補助 — 外国語コンテンツの翻訳に際してAIを補助的に使用すること 軽微なコピー編集の提案 — 自分の文章に対してLLMに基本的な校正提案をさせること。ただし、AIが独自のコンテンツを追加せず、人間によるレビューを経た上での採用に限る Wikipedia創設者ウェールズ氏のスタンス Wikipediaの創設者ジミー・ウェールズ氏はかねてからAI活用に慎重な姿勢を示してきた。昨年BBCに対し、「絶対にないとは言わないが、少なくとも短期的には使わない。最新のモデルもWikipediaの基準からはまだ全く十分ではない」と語っている。 ChatGPTがWikipediaの月間訪問者数を上回った現実 皮肉なことに、ChatGPTは昨年Wikipediaの月間サイト訪問者数を上回ったと報じられている。AIが基本的な情報収集の手段として急速に普及する一方で、AIは「ハルシネーション(幻覚)」と呼ばれる誤情報を生成するリスクを抱えている。ウェールズ氏はこの状況を「混乱(a mess)」と表現していた。 日本語版Wikipediaへの影響は? 今回の禁止ポリシーは英語版Wikipediaが採択したものだが、他言語版の編集コミュニティにも影響を与える可能性がある。日本語版Wikipediaにも独自の編集ガイドラインがあるため、今後の動向が注目される。AIと信頼性の高い百科事典の共存という課題は、世界中のコミュニティが直面している問題だ。 元記事: Wikipedia bans AI-generated content in its online encyclopedia

March 29, 2026 · 1 min · 胡田昌彦

2026年の中国LLM勢力図:Qwen・DeepSeek・Doubaoが欧米勢に挑む多層構造の実態

「DeepSeekとQwenがすべて」では語れない中国AI市場の現実 2026年3月現在、中国の大規模言語モデル(LLM)市場は、海外のAIコミュニティで語られるイメージとは大きく異なる姿を見せている。Redditの技術フォーラム「r/LocalLLaMA」では「DeepSeekとQwenがほぼすべてを定義している」という見方が広まっているが、国内の実際のアプリ利用データを見ると、ByteDance(字節跳動)のDoubao(豆包)が消費者接点では圧倒的な存在感を持つ。どちらの見方も間違いではないが、それぞれ市場の異なる層を切り取っているに過ぎない。 三層に分かれる競争構造 中国のLLM競争は現在、大きく三つの層で展開されている。 第一層:消費者向けプロダクト ByteDanceのDoubaoは、モデルの技術的な話題性よりも「配信力とプロダクトの到達範囲」によって優位を保っている。日本でLINEやGoogleアシスタントが日常に溶け込んでいるように、Doubaoは中国の一般ユーザーの日常的なAI接点として機能している。 第二層:オープンソース・開発者エコシステム Alibaba(アリババ)のQwen(通義千問)とDeepSeekは、グローバルなオープンソースコミュニティにおいて最も影響力の大きいモデルラインを維持している。2025年から2026年にかけて、両社を含むQwen・DeepSeek・Kimi・GLM・MiniMax・StepFun・ByteDance Seed・XiaomiのMiMoといったモデルが数週間おきに新バージョンや技術レポートを公開し続けており、リリース頻度の高さは欧米勢をしのぐ勢いだ。 第三層:法人向け・エコシステム展開 Tencent(テンセント)・Alibaba・Baidu(百度)・ByteDanceなどの大手テック企業は、既存のビジネスシステムへのモデル組み込みにおいて、フォーラム上の評判以上の優位性を持つ。一方で、KimiやGLM・MiniMaxなどのスタートアップは「汎用チャットモデル」路線から「エージェント・長文脈・コーディング・マルチモーダル・垂直業界」への差別化に軸足を移している。 次の主戦場はコーディングエージェント 現在急速に形成されつつある新たな競争領域が、Claude Codeのようなコーディングエージェントワークフローと、OpenClaw周辺のエージェントフレームワークエコシステムだ。ターミナルやIDE・ツールチェーン内でデフォルトのモデルバックエンドになれるかが、次の覇権を左右する鍵と見られている。 日本のエンジニアにとっても、VSCodeやCursorなどのAIコーディングツールの背後でどのモデルが動くかは無関係ではない。中国発のモデルがグローバルなOSSエコシステムを通じてツールチェーンに組み込まれるシナリオは、すでに現実味を帯びている。 「モデルを作れるか」ではなく「製品にできるか」が勝敗を分ける 中国LLM市場の真のボトルネックは、もはや「誰が高性能なモデルを訓練できるか」ではない。「そのモデルを実際の製品として展開し、規制に準拠した形でローンチし、長期的な推論・計算コストを吸収できるか」に移行している。 米国市場が少数のフロンティアモデルベンダーに注目を集中させがちなのとは対照的に、中国市場は大手テック企業とスタートアップが複数の軸で競い合う複雑な構造を持つ。一次元のランキングではなく、多層の地図として捉えることが、中国AI台頭の実態を正確に把握する上で不可欠だ。 元記事: China’s LLM Landscape in 2026: How Models, Products, and Ecosystems Are Being Reordered

March 29, 2026 · 1 min · 胡田昌彦

NVIDIA、エージェントAI時代を見据えた120Bハイブリッドモデル「Nemotron 3 Super」を発表

NVIDIAがGTC 2026で「Nemotron 3」ファミリーを公開——エージェントAI向けオープン基盤モデルの新展開 NVIDIAは2026年3月11日、米国サンノゼで開催中の「GTC 2026」にて、エージェントAIシステム向けの新しいオープンモデルファミリー「Nemotron 3」を発表した。同社にとって過去最も本格的なモデルリリースと位置づけられており、AIスタック全体への影響力拡大を明確に示す動きとして業界から注目されている。 ハイブリッドMoEによる圧倒的な効率性 今回の主力モデル「Nemotron 3 Super」は、総パラメータ数120Bながら、推論時に活性化されるパラメータは12Bにとどまる「ハイブリッド混合エキスパート(Hybrid MoE)」アーキテクチャを採用している。このアプローチにより、複雑なマルチエージェントワークロードを処理しながらもインフラコストを抑えることが可能となる。 ベンチマーク面では、ソフトウェアエンジニアリング評価指標「SWE-Bench Verified」で60.47%を達成。同規模の競合モデル(GPT-OSS-120B)と比較して約2.2倍のスループットを実現するという。 ファミリー構成は「Nano」「Super」「Ultra」の3サイズ展開。Nanoはすでに提供開始されており、SuperとUltraは2026年前半のリリースが予定されている。Nanoは前世代比で4倍のスループット向上を謳っており、複数モデルを並列実行するマルチエージェントパイプラインに最適化されている。 「真のオープンソース」——モデル重みだけでなく学習データも公開 Nemotron 3が業界標準的な「オープンソース」リリースと一線を画するのは、モデル重みだけでなく学習データセット・強化学習(RL)環境・ライブラリ一式を合わせて公開している点だ。NVIDIAのCEO、ジェンスン・ファン氏はGTCの壇上で次のように述べた。 「オープンイノベーションはAI進歩の土台だ。Nemotronを通じて、開発者が自らエージェントシステムを構築できる透明性と効率性を提供する。」 多くの「オープン」モデルがモデル単体の公開にとどまる中、Nemotron 3はエンドツーエンドの構築ツールキットとして機能する設計となっている。 クラウド・エンタープライズ双方での展開 クラウド展開では、Amazon Bedrockへのサーバーレス統合から開始し、Google Cloud、Microsoft Foundry(Azure)、CoreWeaveなどへの順次対応が予定されている。エンタープライズ向けにはNVIDIAのNIMマイクロサービスを通じてオンプレミスやプライベートクラウド環境への導入も可能だ。 すでにCouchbase、DataRobot、H2O.ai、JFrog、UiPathといったパートナー製品への統合も完了しており、これらのプラットフォーム利用者はカスタム統合作業なしでNemotron 3を活用できる。 次世代アーキテクチャ「Vera Rubin」も発表 GTCではNemotron 3と並行して、次世代AIスーパーコンピュータ基盤「Vera Rubin」も発表された。現行のBlackwellプラットフォームと比較して、推論トークンコストを最大10分の1に削減し、MoEモデルの学習に必要なGPU数を4分の1に抑えられるとしている。Anthropic、Meta、OpenAI、Mistral、xAIなど主要AIラボがRubinハードウェアでの学習を予定しており、2026年後半からCorWeaveを筆頭に提供開始される見込みだ。 ハードウェア企業からAIスタック全体へ NVIDIAが競争力のあるオープンソースモデルファミリーを、学習データやRLライブラリまで含めてリリースしたことは、チップの販売にとどまらずAIスタック全体の主導権を握る意図を明確に示している。マルチエージェントアーキテクチャへの移行が加速する中、推論コストの削減と高スループットを両立したNemotron 3は、エージェントAI開発の中核を担う存在になり得る。 元記事: NVIDIA Nemotron 3 Super: 120B Hybrid MoE Model Built for Agentic AI Era

March 29, 2026 · 1 min · 胡田昌彦

Intel OpenVINO 2026.0リリース——NPU対応強化とLLMサポート拡充でローカルAI推論が本格化

Intelは2026年2月23日、オープンソースのAI推論ツールキット「OpenVINO」の2026年初メジャーリリースとなるOpenVINO 2026.0を公開した。大規模言語モデル(LLM)サポートの拡充、Intel NPU(Core Ultraシリーズ向け)のハンドリング改善、CPU/NPU/GPU横断での推論最適化強化が主な見どころだ。 新たにサポートされたLLMモデル CPU・GPU実行向けには以下のモデルが新たに追加された。 GPT-OSS-20B(OpenAI製オープンウェイトモデル) MiniCPM-V-4_5-8B MiniCPM-o-2.6 GPT-OSS-20BについてはOpenVINOの正式サポートが今回まで遅れていた点が業界的にも注目されていたが、今バージョンでついに対応が完了した。 NPU向けの小規模モデルとしては以下が追加されている。 MiniCPM-o-2.6 Qwen2.5-1B-Instruct Qwen3-Embedding-0.6B Qwen-2.5-coder-0.5B Qwenシリーズはアリババが開発する中国発の高性能LLMファミリーで、小型・軽量モデルの充実度が評価されている。NPUでのオンデバイス推論に向いたサイズ感であり、今回の追加は実用的な意義が大きい。 OpenVINO GenAIの機能強化 生成AI向けコンポーネントOpenVINO GenAIにも複数の改善が加わった。 ワードレベルのタイムスタンプ対応:音声認識・字幕生成の精度が向上し、OpenAIのWhisperやFasterWhisperと同等の機能水準に近づいた MoE(Mixture of Experts)LLM向けint4データウェア重み圧縮:3D MatMulに対応し、メモリ帯域幅の削減と精度の両立を実現 VLMパイプライン(Visual Language Model)サポート:エージェントAIフレームワークとの統合が容易になった NPUでのSpeculative Decoding対応:生成速度の向上が期待できる Core Ultra NPUとのコンパイラ統合 ハードウェア面では、Intel Core UltraシリーズのNPUサポートが強化された。NPUプラグインにコンパイラが統合され、OEMドライバの更新を待たずに「事前コンパイル(AOT)」および「オンデバイスコンパイル」が可能になった。Intelはこれを「単一の出荷可能パッケージで、統合の摩擦を減らしタイム・トゥ・バリューを加速する」と説明している。 Core Ultraを搭載したノートPCやミニPCを使う開発者にとって、ドライバ依存が薄れることはローカルAI開発の敷居を大きく下げる改善点だ。 まとめ OpenVINO 2026.0は、Intelが自社ハードウェア上でのAI推論エコシステムを着実に強化していることを示すリリースだ。特にNPU活用とLLMサポートの拡充は、クラウドに頼らないオンデバイスAIの実用化を後押しする。ソースコードおよびバイナリはGitHubから入手可能。 元記事: Intel Releases OpenVINO 2026 With Improved NPU Handling, Expanded LLM Support

March 29, 2026 · 1 min · 胡田昌彦

Alibaba Cloud、小型でも高性能なマルチモーダルAI「Qwen3.5」シリーズを公開——9Bモデルが旧世代27Bを超える衝撃

Alibaba Cloud、マルチモーダルエージェント向け「Qwen3.5」シリーズを正式公開 Alibaba CloudのQwenチームは、マルチモーダルAIエージェント向けの新モデルシリーズ「Qwen3.5」を公開した。パラメータ数0.8Bから9Bまでの小型モデルで構成されており、エッジデバイスやオンデバイスAI用途への展開を強く意識した設計となっている。 9Bモデルが旧世代27Bを凌駕 今回のシリーズで特に注目を集めているのが、最上位の9Bモデルだ。ベンチマーク評価では、約3倍のパラメータ数を持つ旧世代モデルを上回る性能を記録した。モデルの大型化に頼らずに性能を引き上げるという近年のトレンドを体現した結果であり、学習効率や推論アーキテクチャの改善によるものとされている。 視覚理解ではGPT-5-Nanoを大幅上回る 視覚理解(Visual Understanding)の分野では、OpenAIが提供するGPT-5-Nanoを大きく上回るスコアを達成した。画像の内容把握、図表の読み取り、複雑なシーン理解など、マルチモーダルエージェントが現実世界で動作するために必要な能力を重点的に強化した成果とみられる。 「ネイティブ・マルチモーダルエージェント」というコンセプト Qwen3.5のシリーズ名に添えられた副題「Towards Native Multimodal Agents(ネイティブ・マルチモーダルエージェントへ向けて)」が示すように、テキストと画像をシームレスに扱うエージェントAIの実現を主眼に置いている。従来の「テキストが主、画像は補助」という設計から脱却し、視覚情報を最初から対等に扱えるモデルを目指した点が大きな特徴だ。 日本への影響と今後の展開 国内でも法人・個人を問わずLLM(大規模言語モデル)の活用が加速しており、軽量かつ高性能なオープンモデルへの需要は高まる一方だ。Qwen3.5はApache 2.0ライセンスでの公開も予定されており、ローカル環境での自社AIエージェント構築に活用できる可能性がある。モデルはHugging Faceなどのプラットフォームを通じて近く公開される見通しで、国内エンジニアや研究者からの注目も高い。 Alibaba Cloudは昨年来、Qwenシリーズを急速に進化させており、今回のQwen3.5はその集大成ともいえるリリースだ。小型モデルの性能競争はますます激化しており、Google、Meta、Mistralなどとの覇権争いが続く中、中国発モデルの台頭が改めて示された形となった。 元記事: Qwen3.5: Towards Native Multimodal Agents

March 29, 2026 · 1 min · 胡田昌彦

MicrosoftがWindows 11のCopilot押し付けを撤退——品質改善を最優先に方針転換

MicrosoftがWindows 11のCopilot戦略を見直し——品質最優先への方針転換 Microsoftは、Windows 11においてAIアシスタント「Copilot(コパイロット)」の積極的な統合を抑制し、OSの品質改善を最優先とする方針を正式に発表した。企業ユーザーを中心にAIの過剰統合に対する批判が高まっていた中、同社はその声に応える形で舵を切った格好だ。 AIの「押し付け」に批判が集中 ここ数年、MicrosoftはWindows 11にCopilotを次々と組み込み、スタートメニューや通知、タスクバーなどあらゆる場所でAI機能を前面に押し出してきた。しかし、企業のIT管理者やパワーユーザーからは「業務に不要なAI機能が邪魔」「望まない機能が勝手に有効になる」といった不満の声が相次いでいた。 特に、法人向けデプロイメント(一括展開)の現場では、Copilot関連の設定を無効化するためのグループポリシーやレジストリ操作が増加しており、IT部門の負担増加につながっていた。 3本柱による品質立て直し計画 Microsoftが掲げる品質改善の方針は、以下の3点を軸としている。 パフォーマンス(Performance) — 起動時間の短縮、動作の軽量化、システムリソースの最適化 信頼性(Reliability) — クラッシュやブルースクリーン(BSOD)の削減、アップデートの安定性向上 丁寧な作り込み(Craft) — UIの一貫性改善、細部のブラッシュアップ、ユーザー体験の向上 この方針は、かつてWindows 10で実施された「品質重視フェーズ」への回帰とも見られており、Windowsの中核機能をしっかり磨き上げることへの回帰を意味する。 日本企業のIT部門にも朗報 日本でも多くの企業がWindows 11への移行を進めているが、Copilotの挙動や無効化の手間が課題となっていた事例は少なくない。特にデータガバナンスやプライバシーポリシーの観点から、AIクラウド連携機能を制限したい法人需要は根強い。今回の方針転換は、そうした企業IT部門にとっても歓迎すべきニュースといえるだろう。 今後の展開に注目 Microsoftは引き続きCopilot機能そのものを廃止するわけではなく、「必要なユーザーが選んで使える形」への転換を目指すとしている。Windows 11の次期大型アップデートでは、今回の方針がどこまで具体的な改善として反映されるか、IT管理者やエンドユーザーの双方から注目が集まる。 AI機能の「量」から「質」と「選択の自由」へ——Microsoftが掲げる方針転換が、現場の信頼回復につながるかどうか、今後の動向を注視したい。 元記事: Microsoft Dials Back Copilot, Pledges Windows 11 Quality Overhaul

March 29, 2026 · 1 min · 胡田昌彦

KubeCon Europe 2026発表:AKSの5大アップデート——GPU監視・マルチクラスター接続・コスト削減を一挙解説

KubeCon Europe 2026でAKSが大幅強化——コンテナ運用チームが押さえるべき5つのポイント 2026年4月にオランダ・アムステルダムで開催された KubeCon + CloudNativeCon Europe 2026 にて、MicrosoftはAzure Kubernetes Service(AKS)の一連のアップデートを発表した。観測性(Observability)、マルチクラスター運用、ストレージ、AIを活用したトラブルシューティングにまたがる内容で、コンテナ基盤を担う運用チームにとって実務直結の改善が揃っている。 1. コンテナネットワークメトリクスのフィルタリング——監視コストを制御する Advanced Container Networking Services(ACNS)はすでにeBPFテクノロジーを使ったノード・Pod単位の深い可視性を提供してきたが、今回プレビューとして追加されたコンテナネットワークメトリクスフィルタリングでは、収集・保存前にメトリクスをソースでフィルタリングできる。 Kubernetesのカスタムリソースを使ってネームスペース単位、Pod・ラベル単位、メトリクス種別単位でフィルタリング条件を定義可能。大規模クラスターで問題になりがちなAzure Monitorのコスト増大とダッシュボードの低速化を抑えながら、必要な箇所での深い可視性を維持できる。 要件はCiliumデータプレーン(Kubernetes 1.29以上)で、Azure managed Prometheus・Azure Managed Grafanaと統合される。 2. GPUメトリクスのAzure Monitor統合——AI・MLワークロードの死角を解消 Kubernetes上でAI・機械学習ワークロードを運用する場合、GPUの利用状況監視は従来「手動でエクスポーターを設定し、カスタム統合が必要」という煩雑な作業を伴っていた。 今回のアップデートで、AKSはGPUのパフォーマンスと利用率メトリクスをマネージドPrometheus・Grafanaへ直接統合する。CPU・メモリ・ネットワークと同一の監視スタックにGPUテレメトリが乗るため、統一的なキャパシティプランニング・アラート・コスト配賦が実現する。 推論ワークロードやバッチ処理を走らせているチームにとって、GPUノードプールの稼働率をGrafanaダッシュボードで可視化し、インフラ投資対効果を示せることは大きな意義がある。 3. Fleet Managerのクロスクラスターネットワーキング——マルチクラスター接続を統一 環境分離・リージョン冗長・コンプライアンス境界分離などの理由から複数のAKSクラスターを運用するケースは珍しくない。しかし従来はクラスター間のサービス接続にカスタムの仕組みが必要で、サービスディスカバリも不統一だった。 Azure Kubernetes Fleet ManagerがマネージドCiliumクラスターメッシュによるクロスクラスターネットワーキングを提供開始した。これにより複数クラスター間の統一的な接続性を確保でき、独自実装なしに一貫したサービスディスカバリとクラスター間可視性が得られる。 マルチクラスター・マルチリージョン構成を取る組織にとって、運用の複雑さを大幅に削減するアップデートだ。 運用チームへの示唆 今回の5大発表に共通するテーマは「スケールしてもオペレーションを維持可能にする」という点だ。特に注目すべきは以下の組み合わせ効果: メトリクスフィルタリング × GPUメトリクス統合 → 「見るべき場所だけを深く見る」観測戦略の実現 Fleet Managerのクラスターメッシュ → マルチクラスター運用の標準化 Cilium依存の機能が多いため、データプレーンをCiliumに移行済みか評価することが前提となる。Kubernetes 1.29以上へのバージョン管理計画とあわせて確認したい。 各機能の詳細はAzure公式ドキュメントおよびKubeCon Europe 2026のセッション録画で確認できる。 元記事: AKS Platform Updates: What Container Teams Need to Know from KubeCon Europe 2026 ...

March 29, 2026 · 1 min · 胡田昌彦

Microsoft 365 E7「フロンティアスイート」発表——社内50万超のAIエージェントを一元管理する新ティア

Microsoft 365 E7「フロンティアスイート」発表——AIエージェント時代の新たな最上位プラン Microsoftは、企業向けMicrosoft 365の新しい最上位ティアとなる Microsoft 365 E7(通称「フロンティアスイート」) を発表した。E7は単なるライセンスのアップグレードではなく、企業内で急増するAIエージェントを安全・効率的に運用するための統合基盤として設計されている。 Agent 365——AIエージェントのコントロールプレーン E7の中核機能となるのが Agent 365 だ。これは、組織内で稼働するすべてのAIエージェントを一元的に可視化・管理するコントロールプレーンとして機能する。具体的には以下の3つの柱を備える。 観測性(Observability): どのエージェントが何をしているかをリアルタイムに把握 ガバナンス(Governance): エージェントのアクセス権限やポリシーを組織横断で管理 セキュリティ(Security): エージェント経由のデータ漏洩や不正操作を検知・ブロック Microsoftは、自社内ですでに 50万以上のAIエージェント を本番稼働させており、1日に 6万5,000件以上の回答 を生成していると公表している。これは単なるデモ数字ではなく、Agent 365が実運用を経て磨かれた製品であることを示している。 Copilotで使えるモデルが拡充——Claude・GPT最新版を選択可能に E7のもう一つの目玉は、Microsoft Copilot で利用できるAIモデルの選択肢拡大だ。Frontier経由で Anthropic Claude と OpenAI の最新モデル が利用可能になる。これにより、業務内容や出力品質の好みに応じてモデルを使い分けることができる。 日本企業にとっても注目点は多い。Microsoft 365はJBSを含む多くの国内企業で標準的な業務基盤となっており、E7への移行によってCopilotの活用範囲が大幅に広がる可能性がある。特に、複数のAIエージェントを並行して運用している組織では、Agent 365のガバナンス機能がコンプライアンス対応やリスク管理の面で大きな価値を持つだろう。 AIエージェント管理が「インフラ問題」になる時代へ 今回の発表が示すのは、AIエージェントが「実験的な取り組み」から「管理が必要なインフラ」へと移行しつつあるという現実だ。単一エージェントの導入フェーズを超え、数十・数百のエージェントが業務プロセスに組み込まれる段階では、可視性とコントロールが不可欠になる。 Microsoft 365 E7の詳細な価格や提供時期は順次アナウンスされる見込みで、既存E3・E5ユーザーへのアップグレードパスにも注目が集まっている。 元記事: Partner Blog | Introducing Microsoft 365 E7: The Frontier Suite

March 29, 2026 · 1 min · 胡田昌彦

BlueSkyがAIアシスタント「Attie」を発表——自然言語でカスタムフィードを構築できる新アプリ

BlueSkyが新AIアプリ「Attie」を発表——誰でも自分だけのアルゴリズムを設計できる 分散型SNSプラットフォームのBlueskyが、AIを活用した新アプリ「Attie(アティー)」を発表した。これはBlueskyアプリ本体とは別の独立したプロダクトで、ユーザーが自然言語でカスタムフィードを構築できるAIアシスタントだ。 Atmosphereカンファレンスで初披露 Attieは3月末に開催された「Atmosphereカンファレンス」で初めて公開された。発表を行ったのは、Blueskyの元CEOでチーフ・イノベーション・オフィサー(CIO)に就任したJay Graber氏と、同社CTO(最高技術責任者)のPaul Frazee氏だ。カンファレンス参加者が最初のベータテスターとなり、現在はクローズドなテスト段階にある。 Attieの内部エンジンには、Anthropic社の大規模言語モデル「Claude(クロード)」が採用されている。日本でも話題のClaudeを活用した「エージェント型ソーシャルアプリ」として設計されており、ユーザーの意図を理解しながら能動的にフィードを最適化してくれる。 コードなしで自分だけのフィードを設計 Attieの最大の特徴は、プログラミング知識ゼロでカスタムフィードを作れる点だ。チャットボットと会話するように自然言語でコマンドを入力するだけで、自分の好みに合ったフィードを構築できる。 「コードを書いたり、フィードの設定方法を知らなくても、自分でコントロールし、形を変えていける」と、暫定CEO(最高経営責任者)のToni Schneider氏はTechCrunchのインタビューで語った。 Attieにサインインするには、atproto(AT Protocol)対応アプリの共通ログインであるAtmosphereアカウントを使用する。atprotoはBlueskyが開発したオープンな分散型ソーシャルプロトコルで、BlueSky以外のアプリとも連携できる仕組みだ。Attieはこのオープンなデータ基盤を活かし、ユーザーがこれまで何を話し、何に興味を持っているかを即座に把握できる。 「AIは人のために使うべき」というBlueskyの哲学 Schneider氏はAttieの設計思想についてこう述べている。「AIプロダクトではあるが、人間中心のAIプロダクトだ。AIは非常に強力な技術だが、人々に真に役立つものを作るために使いたい」。 この発言は、XやMetaなど大手プラットフォームが広告収益最大化のためにAIアルゴリズムを活用していることへの対比として読み取れる。BlueSkyはオープンプロトコルを旗印に、ユーザーが自らのフィードを主体的にコントロールできる環境を目指している。 将来的には「バイブコーディング」で独自アプリも 現時点のAttieはカスタムフィードの構築・閲覧に対応しており、作成したフィードはBlueskyや他のatprotoアプリからも利用できるようになる予定だ。さらに将来的には、ユーザーが自分専用のソーシャルアプリを自然言語で「バイブコーディング(vibe-coding)」——つまり感覚的な指示だけで開発——できる機能や、他ユーザー向けのツール作成機能も計画されている。 AttieはJay Graber氏が数ヶ月前から開発を進めてきた初のプロダクトであり、彼女がCEO職から離れて「作る人」に戻る決断をしたことで生まれた。SNSのフィード体験を、プラットフォームではなくユーザー自身の手に取り戻す試みとして、今後の展開が注目される。 元記事: Bluesky leans into AI with Attie, an app for building custom feeds

March 29, 2026 · 1 min · 胡田昌彦

MicrosoftがWindows 11更新プログラムKB5079391を緊急撤回——インストールループ不具合が原因

Microsoftは、Windows 11向けのオプション(任意)更新プログラム「KB5079391」の配信を緊急停止した。一部のPCでインストールが完了せずエラーループに陥る不具合が確認されたためだ。 何が起きたか KB5079391は2026年3月26日に配信開始されたが、提供されたのはわずか1〜2時間ほど。その短時間の間に、一部のユーザーがインストール失敗を報告した。 問題のエラーコードは 0x80073712。このエラーは、更新の適用に必要なアセンブリファイルがWindowsのコンポーネントストア(WinSxS フォルダ)から見つからない場合に発生する。Microsoftは次のメッセージをWindows Updateページに表示している。 「一部の更新ファイルが見つからないか、問題があります。後で再度ダウンロードを試みます。エラーコード:(0x80073712)」 Microsoftは「問題を調査中のため、この更新プログラムの配信を一時的に制限している」と公式にコメントしており、3月28日時点ではまだダウンロードできない状態が続いている。 影響範囲と対象バージョン 不具合はWindows 11の最新2バージョンである 25H2 と 24H2 の両方で報告されている。Microsoftがこれほど迅速に更新プログラムを撤回するケースは珍しく、問題が広範囲に及んでいたことをうかがわせる。 現時点でMicrosoftは根本原因を非公開としており、修正版が再配信されるかどうか、またその時期も未定だ。最悪の場合、このアップデートは正式リリースされない可能性もある。 Windowsアップデート改善計画との皮肉な対比 この問題が起きた背景には、皮肉なタイミングがある。Microsoftはわずか9日前、Windows 11の品質向上とWindowsUpdateの改善を約束したばかりだった。 計画されている改善内容には以下が含まれる。 スタートメニューの刷新:ReactからWinUIへの移行による高速化 ファイルエクスプローラーの高速化:読み込み時間の短縮 タスクバーの移動・リサイズ対応 Windows Updateの一時停止期間の延長:現行の最大5週間から、数か月以上の長期一時停止が可能になる予定 特にアップデートの一時停止延長機能は、更新を計画的にコントロールしたいビジネスユーザーや個人にとって朗報だ。しかし、その恩恵を受けるよりも前に、今回のような不安定なアップデートへの対処が先決となっている状況は、Microsoftの改善姿勢と現実のギャップを象徴している。 ユーザーへの影響 今回の更新はあくまで「オプション」扱いであり、Windows Updateの自動更新では通常インストールされない。エラーループが発生した場合は、手動での更新試行を控え、Microsoftが修正版を配信するまで待つことを推奨する。 元記事: Microsoft pulls Windows 11 KB5079391 preview after it causes install error loop on 25H2 and 24H2

March 29, 2026 · 1 min · 胡田昌彦

企業AI選択の潮目が変わった——新規導入企業の70%がChatGPTよりClaudeを選ぶ理由

企業AI市場に起きている静かな革命 AIの性能競争はベンチマークスコアを競う時代から、実際のビジネス現場での採用率を競う時代へと移行しつつある。2026年に入り、その潮目の変化を示す具体的なデータが相次いで公開された。 新規企業の7割がClaudeを選択 ビジネス向け経費管理プラットフォーム「Ramp」が2026年3月に発表した「AI Index」によると、5万社以上の法人クレジットカード利用データを分析した結果、AIサービスを初めて導入する企業において、AnthropicのClaudeがOpenAIとの直接比較で約70%を制していることが判明した。 1年前、Rampプラットフォーム上でAnthropicに課金していた企業は25社に1社程度だった。それが現在では4社に1社近くまで急増している。一方のOpenAIは、直近の単月で過去最大となる1.5%の採用率低下を記録した。 ARR(年間経常収益)の観点でも差は縮まっており、AnthropicはARR約190億ドルに迫る勢いで、OpenAIの250億ドルを射程に捉えつつある。 「安全性」というブランドアイデンティティが武器に Rampのエコノミスト、アラ・カラジアン氏は、この変化を単なる技術的優位性で説明するのは不十分だと指摘する。 2026年前半、OpenAIが大型政府契約の獲得に注力する一方、Anthropicは一貫してAI安全性を中心に据えた企業姿勢を維持した。この「文化的な堀(cultural moat)」が、エンジニアや研究者の間でClaudeを使うこと自体がプロフェッショナルとしての矜持を示すシグナルとなりつつある、という見方だ。iPhoneのiMessage「青いバブル」が一種のステータスになったのと似た現象といえる。 二極化するエコシステム VC大手a16zが発表した「Top 100 Gen AI Consumer Apps」レポートは、両社のエコシステムが明確に分岐していることを示している。数百のコネクターを持ちながら、アプリのエコシステム重複率はわずか**11%**に過ぎない。 OpenAI:旅行・ショッピング・フードサービスなど、消費者向け「スーパーアプリ」路線へ Anthropic:金融ターミナルや開発者ツールとの連携を深め、プロフェッショナル向けインフラに特化 この専門化が進むほど、一度特定のAIにワークフローを最適化したチームの「乗り換えコスト」は高まる。エンタープライズ市場では、このロックイン効果が中長期的な競争優位を決定づける。 UX改善も採用拡大を後押し 技術面でもAnthropicは積極的な改善を続けており、最近ではチャット内でリアルタイムに更新されるインタラクティブな図表・チャートを直接生成できる「インラインビジュアル」機能を投入した。別アプリに出力する手間なく、会話の流れの中でデータを可視化できるこの機能は、業務活用シーンでの生産性を高めると評価されている。 日本企業への示唆 日本でも生成AIの業務導入が本格化する中、このトレンドは見逃せない。エンタープライズ向けAPI、セキュリティポリシー、日本語対応品質の面でClaudeの評価が高まっており、国内大手企業での採用事例も増加傾向にある。「AIをどれだけ使うか」から「どのAIを選ぶか」が企業の競争力に直結する時代、Anthropic対OpenAIの構図は今後もAI戦略の核心的な論点であり続けるだろう。 元記事: Businesses Are Choosing Anthropic’s Claude AI Over OpenAI’s ChatGPT in 2026

March 29, 2026 · 1 min · 胡田昌彦

Anthropicの最新モデル流出が正式確認——推論能力に「質的な飛躍」、OpenAIとの開発競争が加速

Anthropicの最新モデル流出が確認——AI開発競争に新局面 Anthropic(アンソロピック)が、同社史上最も高性能なAIモデルを基本的なセキュリティ上のミスによって外部に流出させていたことが明らかになった。同社はこのモデルが推論能力において「質的なステップアップ(step change)」を実現していると正式に確認した。 流出の発覚後、Anthropicが否定ではなく確認という形で対応したのは異例だ。すでに情報が公開されてしまった以上、沈黙より透明性を選ぶ判断をしたとみられる。モデルの詳細スペックは未公表だが、フロンティアラボからの流出が本物として確認される事例は稀であり、業界への影響は大きい。 タイミングも注目に値する。OpenAIも次世代モデルの公開を準備中とされており、両社は互いの動向を意識しながら最先端技術のアピール競争を繰り広げている状況だ。 同日の主要トピック MetaがオープンソースのブレインAI「TRIBE v2」を公開 Metaは脳の反応を予測するモデル「TRIBE v2」を公開した。映像・音声・テキストを同時入力として、fMRI(機能的磁気共鳴撮像)の反応を予測する機能を持つ。 従来の脳マッピング研究では認知機能ごとに別々のモデルを使っていたのに対し、TRIBE v2は複数の入力モダリティに対して統一モデルで対応する点が特徴だ。即座に消費者向け製品となるものではないが、人間が情報を処理するメカニズムの解明につながる研究基盤として注目される。オープンソースとして公開されたため、世界中の研究機関がこの成果を活用できる。 Google、「Gemini 3.1 Flash Live」をプレビュー公開 Googleはリアルタイムマルチモーダル音声インタラクションに特化した「Gemini 3.1 Flash Live」を、Google AI StudioのGemini Live API経由で開発者向けプレビューとして公開した。 低レイテンシーの音声・映像・ツール連携を一体化した設計で、AIエージェント構築向けのインフラとして位置づけられている。カスタマーサービスエージェントやリアルタイム翻訳、音声操作ワークフローなど、応答速度が品質と同等に重要な用途を主なターゲットとしている。 中国製チップの台頭——HuaweiがAlibaba・ByteDanceから受注へ Alibaba(アリババ)とByteDance(バイトダンス)が、Huawei(ファーウェイ)の新型AI チップ「910C PR(950PR)」の発注を計画していることが明らかになった。内部テストでCUDA互換性が従来製品より向上していたことが判断の決め手となった。 CUDA(クーダ)はNVIDIAのプログラミングフレームワークであり、AIトレーニングコードの多くがこの上で動作する。CUDAとの互換性が高まれば、中国の研究機関はソフトウェアスタックを大幅に書き直すことなくNVIDIAからHuaweiへの移行が可能となる。これは切り替えコストを劇的に下げる意味で重大な技術的変化だ。 2026年の出荷見込みは約75万台。米国の輸出規制によってNVIDIA製GPUへのアクセスが制限される中、Huaweiが実質的な代替選択肢として浮上しつつある。 元記事: AI Model Releases March 27: Anthropic Leak Confirmed

March 29, 2026 · 1 min · 胡田昌彦

Windows 11にSysmonがOS標準機能として統合——セキュリティ監視の展開負担が大幅軽減

Windows 11にSysmonがネイティブ統合——エンタープライズのセキュリティ運用が変わる Microsoftは、セキュリティ監視ツール「Sysmon(System Monitor)」をWindows 11のOS標準機能として提供開始した。現在はWindows Insider ProgramのBetaチャンネルおよびDevチャンネル参加者向けに展開中で、将来的に正式リリースへ段階的に拡大される見込みだ。 Sysmonとは SysmonはもともとMicrosoftのSysinternalsスイートに含まれる無償ツールで、Windowsのシステムサービスとデバイスドライバーとして動作する。プロセスの作成・終了といった基本的なイベントの監視に加え、実行ファイルの作成、プロセス改ざん、クリップボードの変更、削除ファイルの自動バックアップなど、より高度なふるまいも検知可能だ。収集したログはWindowsイベントログに記録されるため、SIEM(セキュリティ情報イベント管理)製品や各種セキュリティソリューションとの連携も容易で、SOC(セキュリティオペレーションセンター)チームにとっては脅威ハンティングの定番ツールとして広く活用されてきた。 これまでの課題 これまでSysmonは、Sysinternalsのウェブサイトから個別にダウンロードし、管理対象の各デバイスに手動でインストールする必要があった。大規模なIT環境では、この展開・管理コストが現場担当者の負担になっていた。 OS統合による変化 今回のOS統合により、Sysmonは「設定 → システム → オプション機能 → Windowsのその他の機能」からチェックを入れるだけで有効化できるようになった。PowerShellやコマンドプロンプトからは以下のコマンドでもインストール可能だ。 元記事: Microsoft rolls out native Windows 11 Sysmon security monitoring

March 29, 2026 · 1 min · 胡田昌彦

OpenAIがSoraを廃止——膨大な計算コストと激化する競争が引導を渡した

OpenAI、動画生成AI「Sora」を突然廃止——その舞台裏 OpenAIが2026年3月25日(火)、動画生成AIアプリ「Sora」の廃止を電撃発表した。同日にはChatGPTへの動画生成機能統合計画の撤回、ディズニーとの10億ドル規模の契約解消、幹部の役職変更、そして100億ドルの追加資金調達(累計1,200億ドル超)と、怒濤の発表が続いた。 「サイドクエストに気を取られている場合ではない」 OpenAIは今、利益を出すこと——あるいは少なくとも赤字を減らすこと——に全力を注いでいる。その文脈でSoraは、莫大な計算リソースを消費しながら見合った収益を生み出せなかった問題児として映った。 「このタイミングを逃すわけにはいきません。サイドクエストに気を取られている余裕はない」——アプリケーションCEOからAGIデプロイメントCEOへと役職変更されたFidji Simo氏が、社内でこう語ったと報じられている。「生産性、特にビジネス面での生産性を確実に伸ばすことに集中しなければならない」 競合に追い抜かれたSora 業界関係者によると、Soraはリリース後まもなく競合の動画生成モデルに遅れをとっていたという。クリエイター向けAI動画プラットフォーム「Render Network Foundation」の理事を務めるTrevor Harries-Jones氏は、動画生成AI業界の競争激化がOpenAIの決断を後押ししたと見る。 「イノベーションのスピードと選択肢の多さにより、各サービス間の切り替えは非常に簡単になっています。何か一つでも頭一つ抜けていなければ、大規模なユーザー獲得は難しい」とHarries-Jones氏は語る。実際、SoraはGoogleやKlingといった強力なプレイヤーに押されてしまったと同氏は指摘する。 「発表時のマーケティング動画は革命的に見えたが、実際のリリースとの間には大きなギャップがあった。コスト、生成できる動画の長さなど、詳細を見ると現実は厳しかった」 ダウンロード数が物語る凋落 市場調査会社Sensor Towerのデータは、Soraの軌跡を如実に示している。2024年10月のリリース直後は月間約480万ダウンロードを記録し、11月には610万ダウンロードとピークを迎えた。しかしその後は急落が続き、12月に320万、2025年1月に210万、2月に140万、そして3月には110万(月途中)にまで落ち込んだ。 「注目すべきは、新市場への展開を進めながらもダウンロード数が落ちたこと。本来なら成長を牽引するはずの施策が機能しなかった」とSensor TowerのVP・Seema Shah氏は分析する。 「フェイク動画」という負の遺産 Soraはその短い生涯で、もう一つの課題も残した。高品質なリアル調の動画を生成できる技術は、「本物か偽物かを見極める目」を人々に求める新たな時代を象徴した。動画コンテンツの真偽を巡る信頼の侵食という問題は、Sora廃止後も業界全体の課題として残り続ける。 AnthropicやGoogleとの競争が激化する中、OpenAIは「選択と集中」へと舵を切った。AGI開発という本丸に経営資源を集める戦略転換の象徴として、Soraの廃止は記憶されることになるだろう。 元記事: Why OpenAI killed Sora

March 28, 2026 · 1 min · 胡田昌彦

Anthropic「Claude」の有料登録者数が急増——スーパーボウル広告とDoD騒動が追い風に

Claudeの有料ユーザーが急増、背景に複数の話題 AnthropicのAIアシスタント「Claude」が、有料ユーザー数の面で急成長を見せている。米消費者約2,800万人の匿名クレジットカード取引データを分析した調査会社Indagariがメディア「TechCrunch」向けに実施した調査によると、Claudeの有料加入者数は今年に入って記録的なペースで伸びており、Anthropicの広報担当者も「有料サブスクリプション数は今年すでに2倍以上になった」と認めた。 1月〜2月が突出した伸び 特に注目されるのは、2026年1月から2月にかけての急増だ。この期間に新規有料登録者が過去最高水準に達しただけでなく、かつてClaudeを利用していた休眠ユーザーの復帰も記録的な数に上ったという。 新規登録の大半を占めるのは月額20ドルの「Pro」プランユーザーで、月額100〜200ドルの上位プランと比べると手の届きやすい価格帯が牽引役となっている。3月上旬のデータ(約2週間遅れで取得可能)でも、この成長トレンドが継続していることが確認されている。 なお、今回の調査データには企業向けビジネス(エンタープライズ)や無料ユーザーは含まれておらず、Claude全体のユーザー総数については1,800万〜3,000万人と推計値に幅があるが、Anthropicは公式数字を開示していない。 成長を後押しした2つの出来事 急増の背景には、時期が重なった2つの大きな出来事がある。 スーパーボウル広告の反響 Anthropicは2月開催のスーパーボウルで、OpenAIがChatGPTに広告を表示し始めたことを皮肉るCMを複数放映した。「Claudeは絶対に広告を出さない」と明言したこのCMはユーモラスかつ効果的だったとされ、OpenAIのCEOサム・アルトマン氏の神経を逆なでしたとも報じられた。日本ではスーパーボウルの直接的な視聴者は限られるが、SNSや各メディアを通じた拡散がブランド認知を高めた。 米国防総省(DoD)との対立 1月末から複数の大手メディアが、AnthropicとDoD(米国防総省)の対立を報じ始めた。争点は「DoDがAnthropicのAIを致死的自律兵器や市民への大規模監視に利用することをAnthropicが拒否した」という問題だ。DoDはAnthropicを「サプライリスク企業」に指定すると脅しをかけ、CEOのダリオ・アモデイ氏が2月26日に公開声明を発表。その後、訴訟合戦に発展したが、連邦裁判所が今週、DoDによる指定を一時的に差し止めた。 新規ユーザーの増加はこの報道が激化した時期と重なっており、Anthropicの「倫理的姿勢」への支持がユーザー獲得につながった可能性が示唆されている。 Claude Codeの存在感も拡大 ドラマチックな騒動だけでなく、開発者向けツール「Claude Code」の人気急上昇も成長の一因として挙げられている。Claude Codeはターミナル上で動作するAIコーディングエージェントで、特にエンジニアコミュニティで強い支持を得ている。日本国内でも利用者が増えており、開発現場への浸透がClaud全体のブランド力を高めている側面もある。 OpenAIのChatGPTとの競争が激しさを増す中、有料ユーザー獲得でClaudeが存在感を急速に高めつつあることは間違いなく、今後の動向が注目される。 元記事: Anthropic’s Claude popularity with paying consumers is skyrocketing

March 28, 2026 · 1 min · 胡田昌彦

Linuxカーネル管理者が証言:AIバグレポートが「ガラクタ」から「本物」へ一夜で変貌

AIバグレポートが「ゴミ」から「本物」へ——何が変わったのか KubeCon Europe 2026の会場で、長年Linuxカーネルのメンテナーを務めるグレッグ・クロアハートマン(Greg Kroah-Hartman)がThe Registerの取材に応じ、AI関連の驚くべき変化について語った。 「AIスロップ」の時代は終わった 数ヶ月前まで、Linuxカーネルチームに届くAI生成のセキュリティレポートは、明らかに誤りだらけの低品質なものばかりだったという。クロアハートマンは「正直、笑えるレベルでした。深刻には受け止めていなかった」と振り返る。 こうした粗悪なAI生成報告は、業界では「AIスロップ(AI slop)」と呼ばれている。cURLの創設者ダニエル・ステンバーグ(Daniel Stenberg)のチームでは、AIスロップの報告が殺到した結果、バグバウンティ(脆弱性報奨金制度)の支払いを停止せざるを得なくなったほどだ。 約1ヶ月前に「何かが変わった」 ところが状況は一変した。「1ヶ月ほど前、世界が切り替わった。今では本物のレポートが届いている」とクロアハートマンは言う。 この変化はLinuxだけの話ではない。「すべてのオープンソースプロジェクトで、AIを使って作成された本物で質の高いレポートが届くようになっている」と彼は続ける。主要なオープンソースプロジェクトのセキュリティチームは非公式に情報共有しており、全員が同じ傾向を確認しているという。 誰も理由を説明できない 不思議なのは、この「転換点」が何によってもたらされたのかが、誰にも分からないことだ。「ツールが大幅に改善されたのか、それとも多くの人や企業が『そうだ、これを使って調べよう』と気づき始めたのか。正直なところ分からない」とクロアハートマンは率直に認める。 Linuxカーネルチームは大規模かつ分散型のチームであるため、増大するレポートを吸収する能力がある。しかし彼は、規模の小さいオープンソースプロジェクトへの影響を懸念する。「増加は本物で、まだ止まる気配がない。小さなものばかりだが、すべてのオープンソースプロジェクトで対応支援が必要だ」と指摘する。 AIはコード審査の「アシスタント」として台頭 現時点では、AIはLinuxカーネルコードの「完全な著者」よりも、「レビュアー兼アシスタント」としての役割が大きい。ただし、その境界線は曖昧になりつつある。 クロアハートマンは自身でもAI生成パッチの実験を行った。「バカなプロンプトを入力したら、『60個の問題を見つけた、修正はこれ』と返ってきた。3分の1は間違っていたが、それでも実在する問題を指摘していた。残り3分の2のパッチは正しかった」と語る。 パッチの適用には人間によるクリーンアップや変更履歴の整備が必要だったが、「ツールは使える。無視できるレベルじゃない。これは進化し続けている」と評価した。 パッチ提出にも「共同開発」タグが登場 Linuxカーネルのコミュニティでは、AIと共同で開発されたパッチに co-develop タグを付与する運用も始まっている。エラー条件の検出など「単純な変更」については、AIが今日にでも実用的なパッチを大量に生成できると彼は示唆する。 オープンソース開発とAIの関係は、静かに、しかし確実に新たな段階へと移行しつつある。 元記事: AI bug reports went from junk to legit overnight, says Linux kernel czar

March 28, 2026 · 1 min · 胡田昌彦

CERNがFPGAに焼き込んだ超小型AIでLHCのリアルタイムデータ選別を実現

CERNが「シリコンに焼き込んだAI」でLHCデータの選別を実現 欧州原子核研究機構(CERN)は、大型ハドロン衝突型加速器(LHC)が生成する膨大なデータをリアルタイムで選別するために、FPGA(フィールドプログラマブルゲートアレイ)やASIC(特定用途向け集積回路)に直接実装した超小型AIモデルを活用していることが明らかになった。 LHCが生み出す「前代未聞」のデータ量 LHCでは27キロメートルのリング内を光速に近い速度で飛び交う陽子ビームが、約25ナノ秒ごとに交差する。衝突が発生するたびに検出器は数メガバイトの生データを取得するため、ピーク時には毎秒数百テラバイト——年間にして約40,000エクサバイトというデータストリームが生まれる。これは現在のインターネット全体のおよそ4分の1に相当する規模だ。 この全データを保存・処理することは現在の技術では物理的に不可能であり、CERNは衝突イベントのうちわずか**0.02%**だけを選別して保存している。残り99.98%は即座に、そして永久に破棄される。 50ナノ秒以内に判断する「レベル1トリガー」 最初かつ最も重要な選別段階は「Level-1トリガー」と呼ばれ、約1,000台のFPGAで構成されている。これらのチップ上で動作する専用アルゴリズムAXOL1TLが、50ナノ秒未満という超低遅延で各衝突イベントの科学的価値を評価し、保存すべきかどうかを判断する。 GPUやTPUといった汎用AIアーキテクチャでは、この遅延要件を満たすことができない。そのためCERNは、モデルをシリコン上に直接「焼き込む」アプローチを選択した。 オープンソースツール「HLS4ML」が橋渡し CERNのAIモデルは、オープンソースツールHLS4MLを使ってコンパイルされる。HLS4MLはPyTorchやTensorFlowで書かれた機械学習モデルを、FPGAやASICに合成可能なC++コードへ変換するツールだ。これにより、クラウドや汎用GPUサーバーを経由せず、検出器の「エッジ」で直接推論を実行できる。 モデル自体はChatGPTのような大規模言語モデルとは対極に位置する——パラメータ数を極限まで削減し、特定の物理シグナルの識別だけに特化した超コンパクトな設計だ。 エッジAIの究極形態 IoTデバイスや自動車向けの「エッジAI」推論が注目を集めている昨今、CERNの取り組みはその究極の形態といえる。マイクロ秒・ナノ秒単位の応答が求められる環境では、ソフトウェアとクラウドの組み合わせは根本的に機能しない——ハードウェアにロジックを直接埋め込むことが唯一の解となる。 CERNのこのアプローチは、粒子物理学の枠を超えて、金融取引の高頻度処理やリアルタイム医療診断など、極限の低遅延が求められる分野への応用可能性も示唆している。 元記事: CERN uses ultra-compact AI models on FPGAs for real-time LHC data filtering

March 28, 2026 · 1 min · 胡田昌彦

AI・テクノロジーの情報を発信しています

YouTube

AI・テクノロジーの最新トレンドを動画で配信中

note

技術コラム・深掘り記事を公開中