【緊急】AKS Azure Linux 2.0が3月31日でサポート終了——今すぐAzure Linux 3への移行を

AKS Azure Linux 2.0、3月31日でサポート完全終了 Microsoftは、Azure Kubernetes Service(AKS)で使用されているノードイメージ「Azure Linux 2.0」のサポートを2026年3月31日をもって完全終了すると発表した。この期限を過ぎると、Azure Linux 2.0を使用しているノードプールのスケールアウト・スケールインが一切できなくなるため、運用中のクラスターを持つエンジニアは早急な対応が求められる。 何が起きるのか タイムラインを整理すると以下のとおりだ。 2025年11月30日: AKSによるAzure Linux 2.0へのセキュリティアップデート提供終了。ノードイメージは202512.06.0リリースで凍結 2026年3月31日: ノードイメージを削除。以降はノードプールのスケール操作が不可能に セキュリティパッチが止まった状態でイメージが凍結されているため、すでに新規構築での利用は推奨されない状況だ。3月31日以降はスケール操作自体ができなくなるため、実質的にクラスターの運用継続が困難になる。 移行方法 Microsoftが推奨する移行方法は2つある。 方法1: Kubernetesバージョンのアップグレード ノードプールをサポート対象のKubernetesバージョンにアップグレードする。この過程でノードイメージも新しいものに更新される。 方法2: osSku を AzureLinux3 に変更 ノードプールのosSkuパラメーターをAzureLinux3に変更して移行する。Azure Linux 3(旧称: Mariner)はRed Hat系のパッケージ管理を採用しており、Azure Linux 2.0との互換性も高い。 同日に廃止されるもう一つの機能 Azure Linux 2.0のEOLと同日、ノードプールに設定できるタグ aks-disable-kubelet-serving-certificate-rotation=true もサポート対象外となる。このタグでkubeletの証明書ローテーションを無効化していた環境では、合わせて設定の見直しが必要だ。 AKSのKubernetesバージョンサポートポリシー AKSはGA(一般提供)バージョンに対して12ヶ月のサポートポリシーを採用している。長期サポート(LTS)を有効化した場合はさらに延長されるが、Azure Linux 2.0はLTS期間中(v1.28〜v1.31)においても今回のEOLが適用されるため注意が必要だ。 現在サポート対象のバージョンは以下のとおり(標準サポート)。 バージョン AKS GA サポート終了 1.32 2025年4月 2026年3月 1.33 2025年6月 2026年6月 1.34 2025年11月 2026年11月 1.35 2026年3月 2027年3月 対応期限は今日 本記事の執筆時点で、期限の2026年3月31日は本日だ。まだ移行が完了していない場合は、直ちにAzureポータルまたはAzure CLIでノードプールのアップグレードに着手することを強く推奨する。移行の詳細手順はMicrosoft公式ドキュメントおよびRetirement GitHub Issueを参照のこと。 元記事: AKS Azure Linux 2.0 End of Life on March 31, 2026 – Migration Required ...

March 30, 2026 · 1 min · 胡田昌彦

Mistral AIがオープンウェイトの音声合成モデル「Voxtral」を公開——ElevenLabsを超えると主張

Mistral AIが無償の音声合成モデル「Voxtral」を公開 フランスのAIスタートアップMistral AIが、テキスト読み上げ(TTS: Text-to-Speech)モデル「Voxtral」を発表し、モデルの重みを無償で公開した。同社は音声の自然さと品質において、TTS市場の有力プレイヤーであるElevenLabsを上回ると主張している。 オープンウェイト戦略でTTS市場に挑む Voxtralの最大の特徴は、モデルの重みが無償で提供されるオープンウェイト形式を採用している点だ。ElevenLabsをはじめとする既存のクラウドTTSサービスは、APIを通じた従量課金モデルを主軸としているが、Mistralはこのビジネスモデルに真っ向から挑む形となる。 オープンウェイトモデルの公開は、開発者や企業がクラウドへの依存なしにローカル環境やオンプレミスでTTS機能を実装できることを意味する。コスト削減はもちろん、プライバシーやレイテンシの観点からも大きなメリットがある。 日本市場への影響 日本では音声合成技術は読み上げアプリ、カーナビ、スマートスピーカー、コールセンター自動化など幅広い分野で活用されている。高品質なオープンウェイトTTSモデルの登場は、これらのユースケースにおける開発コストを大幅に引き下げる可能性がある。 特に注目されるのはオンデバイスAIへの応用だ。軽量化されたTTSモデルをスマートフォンやエッジデバイス上で直接動作させることができれば、クラウド通信なしにリアルタイムの音声インタラクションが実現する。プライバシーに敏感な医療・金融分野での活用も現実味を帯びてくる。 クラウドTTSビジネスモデルへの波及 Mistralの動きは、OpenAIのWhisper(音声認識)やMeta のSeamlessM4T(多言語音声変換)など、大手がオープンモデルを公開してきた流れと軌を一にしている。クラウド課金型のTTSサービスは、差別化のためにより高品質な音声やリアルタイム性、多言語対応などに投資を加速させる必要に迫られるだろう。 ElevenLabsは感情表現や声のクローニング機能で独自の地位を確立しているが、基本的な音声品質での優位性が崩れれば、ビジネスモデルの再構築を迫られる可能性もある。 まとめ Mistral AIによるVoxtralの公開は、TTS市場における「オープンソース対クローズドAPI」という構図を一段と鮮明にする出来事だ。音声AIの民主化が加速する中、開発者コミュニティや企業がどのようにこの技術を取り込んでいくか、今後の動向が注目される。 元記事: Mistral AI just released a text-to-speech model it says beats ElevenLabs — and it’s giving away the weights for free

March 30, 2026 · 1 min · 胡田昌彦

AIとボットがインターネットを制圧——2025年、人間のトラフィックを初めて上回る

ボットがインターネットの主役に——2025年に人間トラフィックを初めて超過 インターネットの歴史的な転換点が訪れた。サイバーセキュリティ企業Human Securityが発表した「State of AI Traffic」レポートによると、2025年にAIおよびボットによる自動化トラフィックが、初めて人間ユーザーのアクティビティを上回ったことが明らかになった。 自動化トラフィックは人間の8倍速で成長 同レポートによれば、自動化トラフィック(AIを含むソフトウェアシステムが生成するインターネット通信)は、2025年に人間の活動と比較して約8倍速いペースで成長した。AIトラフィック全体は2025年1月から12月の間に187%増加しており、OpenAIの「ChatGPT」、Anthropicの「Claude」、Googleの「Gemini」といった大規模言語モデル(LLM)の急速な普及がその主な要因とされている。 Human SecurityのCEO、スチュアート・ソロモン氏はCNBCに対して「インターネットは『画面の向こう側には人間がいる』という基本的な前提のもとに作られてきた。しかしその前提が今、急速に崩れつつある」と語った。 AIエージェントのトラフィックは8,000%増 特筆すべきは、人間に代わって自律的に行動するAIエージェントの台頭だ。「OpenClaw」のようなAIエージェントによるトラフィックは、2024年と比較して2025年に約8,000%もの爆発的な増加を記録した。2024年時点ではそのボリュームは極めて小さかったが、わずか1年でこれほどの急成長を遂げたことは業界に衝撃を与えている。 なお、自動化トラフィックにはGoogleのAI概要(AI Overview)やオートフィルといった一般的な機能も含まれており、必ずしも悪意あるものではない点に注意が必要だ。ソロモン氏は「『機械は悪、人間は善』という考え方は現実的ではない。機械が私たちの代わりに行動する世界を前提に、時間をかけて信頼の仕組みを構築していく必要がある」と述べている。 計測手法の課題も 一方で、このデータの解釈には注意も必要だ。インディアナ大学情報・コンピュータ科学部のフィリッポ・メンツェル教授はCNBCに対し、「ボットトラフィックの推計はユーザーエージェント文字列を使う方法が一般的だが、非常にノイズが多い。データの取得元やサンプルによって結果が大きく変わる」と指摘する。Human Securityのレポート自体も、自己申告に基づくユーザーエージェント文字列の信頼性が「懸念される課題」であると認めている。 同レポートはHuman Securityの自社製品「Human Defense Platform」で処理された1,000兆件(1クアドリリオン)以上のインタラクションをもとにしたものであり、インターネット全体を網羅するものではない。 日本への影響と今後の展望 この傾向は日本のWebサービス運営者にとっても無関係ではない。Webサイトへのアクセス解析やコンテンツ保護、広告効果測定などあらゆる場面で、AIボットをどう扱うかが課題になりつつある。 なお、CDN大手CloudflareのCEO、マシュー・プリンス氏はSXSW 2026で「生成AI登場以前、インターネットトラフィックの約20%はボットが占めていた」と述べており、当初はGoogleのクローラーが大半を占めていたと語った。プリンス氏は「AIボットが人間トラフィックを超えるのは2027年になるだろう」と予測していたが、現実はその予測を1年以上前倒しで追い越してしまった形だ。 インターネットの基本的な前提が書き換えられようとしている今、AIとの共存を見据えた新しい信頼の枠組み構築が急務となっている。 元記事: AI and bots have officially taken over the internet, report finds

March 30, 2026 · 1 min · 胡田昌彦

Windows 11の2026年3月更新(KB5079473)が公開——Sysmon標準搭載とタスクバー速度テストが目玉

Windows 11 2026年3月更新(KB5079473)が安定版チャンネルに公開 Microsoftは2026年3月10日、Windows 11向けの月例セキュリティ更新プログラム KB5079473(ビルド 26200.8037 / 26100.8037)を安定版チャンネルへ展開開始した。対象はWindows 11バージョン24H2および25H2。 今回の更新には新機能の追加とセキュリティ修正が含まれており、中でも Sysmonのネイティブ統合 は企業のセキュリティ担当者にとって注目度の高い変更だ。 Sysmonがオプション機能として標準搭載 最大のトピックは、Sysinternalsツール群の一つである Sysmon(System Monitor) がWindows 11のオプション機能として組み込まれたことだ。 Sysmonはプロセスの作成・ネットワーク接続・ファイル変更といったシステムイベントを詳細にログ記録するツールで、SOCアナリストやインシデントレスポンス担当者が脅威検出に広く活用してきた。これまでは別途ダウンロード・インストールが必要だったが、今後はWindowsの機能管理から直接有効化できるようになる。 追加インストール不要でエンドポイント監視基盤を強化できる点は、特に 大規模環境のIT管理者 にとって展開コスト削減につながる実用的な改善といえる。 タスクバーに速度テスト機能を統合 Wi-FiまたはモバイルのクイックSettingsパネル、もしくはシステムトレイのネットワークアイコンを右クリックすることで、ブラウザベースのネットワーク速度テスト を即座に起動できるようになった。有線(Ethernet)・Wi-Fi・モバイル回線のいずれにも対応しており、接続品質の確認や障害診断に活用できる。 その他の主な変更点 WebP形式の壁紙サポート: デスクトップ背景にWebP画像を直接設定可能に Emoji 16.0対応: 最新の絵文字セットをサポート カメラのパン・チルト制御: 対応カメラのパン・チルト操作をOS側でサポート Quick Machine Recovery(QMR)の動作変更: ドメイン非参加のWindows 11 Proでも既定で有効化。Home版と同等の自動回復保護が適用される ファイルエクスプローラーの改善: 使い勝手と信頼性を複数箇所で向上 Microsoft Entra ID統合の更新: ハイブリッド環境のID管理を改善 スタートメニューの調整・Nearby Sharing・ロック画面の改善なども含む 機能展開に関する注意 Microsoftは Controlled Feature Rollout(CFR) と呼ばれる段階的展開技術を採用しているため、すべての機能がアップデート直後に全ユーザーへ届くわけではない。地域・ハードウェア構成・ソフトウェア環境によって提供タイミングが異なり、欧州などでは規制要件により遅延するケースもある。 Windows Updateから手動でKB5079473を適用するか、アップデートの自動適用を待てばよい。 元記事: Microsoft releases Windows 11 KB5079473 for March 2026 with a built-in speed test and native Sysmon ...

March 30, 2026 · 1 min · 胡田昌彦

Blueskyチームが開発したAIアシスタント「Attie」——自然言語でフィード・アプリを自作できる新時代へ

Blueskyチームが「Attie」を発表——AIがフィードアルゴリズムをあなたの言葉で作る Blueskyの開発チームが手がける最新アプリ「Attie」が、カンファレンス「Atmosphere」にて正式に発表された。元CEOのJay Graber氏とCTOのPaul Frazee氏によるお披露目となったAttieは、Anthropicの大規模言語モデル「Claude」を搭載し、Blueskyの基盤技術であるAT Protocol(atproto)の上に構築されたAIアシスタントだ。 自然言語でフィードをカスタマイズ Attieの中心機能は、自然言語によるカスタムフィードの生成だ。たとえば「ケルト音楽や民俗学、神話に関する投稿をまとめて」といった指示を入力するだけで、独自のアルゴリズムフィードを作れる。これまで自分好みのフィードを構築するには、開発者向けのAPIや専門的な知識が必要だったが、Attieはそのハードルを一気に引き下げる。 当初は独立したAttieアプリ内でのみ利用可能だが、将来的にはBluesky本体や他のatprotoアプリにも統合される予定とされている。 「バイブコーディング」でアプリ開発も民主化 さらに踏み込んだビジョンとして、ユーザーがAttieを使いながらatproto上の独自アプリをノーコードで開発できる機能も計画されている。いわゆる「バイブコーディング(vibe coding)」——コーディング経験ゼロでも感覚的な指示だけでアプリを作れる——というコンセプトだ。 Graber氏はブログ投稿でこう述べている。 「AT Protocolは誰もがその上にアプリを作れるよう設計したが、これまで『誰でも』は実質的に『コードが書ける人』を意味していた。エージェント型コーディングツールはそれを変える。オープンプロトコルが初めて、本当の意味で誰にでも開かれるようになる」 日本のSNS・分散型サービス文化との接点 BlueskyはXの代替として日本でも急速に利用者が増えており、特にエンジニアやクリエイター層に支持されている。AT Protocolを基盤とする分散型SNSの世界で、AIによるパーソナライズやアプリ開発が身近になれば、日本語コンテンツを扱うカスタムフィードやニッチなコミュニティ向けアプリの登場も期待できる。 クローズドベータで順次公開 現在Attieはクローズドベータ段階にあり、公式サイト(attie.ai)からウェイティングリストへの参加が可能だ。Claudeを活用したAIが「誰でもアプリ開発者になれる」世界を実現できるか、今後の展開に注目が集まる。 元記事: Bluesky’s new app is an AI for customizing your feed

March 30, 2026 · 1 min · 胡田昌彦

AI音楽の最前線:業界を揺るがす技術革新と法的混乱、そして倫理論争の全貌

AIが音楽業界のあらゆる領域に侵食しつつある AI(人工知能)技術は今や、音楽業界のあらゆる側面に影響を及ぼしている。サンプル素材の生成からデモ録音、デジタルライナーノーツの作成、プレイリストの自動生成まで、その用途は急速に拡大している。技術的・法的な課題が山積する中、「AIが生み出す大量の低品質コンテントが、現役ミュージシャンの仕事を圧迫するのではないか」という懸念も高まっている。 Sunoが「v5.5」をリリース——カスタマイズ機能が大幅強化 AI音楽生成サービスの最大手・Sunoが、最新モデル「v5.5」をリリースした。これまでのアップデートが音質向上や自然なボーカル表現の改善に注力してきたのに対し、v5.5ではユーザーの制御性向上に重点が置かれている。 目玉機能の「Voices(ボイス)」は、ユーザーが自分の声でボーカルモデルをトレーニングできる機能だ。アカペラ音源や既成楽曲、スマートフォンへの直接録音を学習データとして使用できる。ただし、他人の声を無断で使用するなりすまし行為を防ぐため、ユーザーには確認フレーズの読み上げが義務付けられている。もっとも、著名人のAI音声モデルが既に広く出回っている現状では、この対策を突破される可能性も指摘されている。 業界に広がる「Don’t Ask, Don’t Tell(見て見ぬふり)」文化 AI活用はカントリーミュージック界だけの話ではない。ジャンルを問わず多くのアーティストが、アレンジの実験やデモ制作、サンプル素材の生成にAIを活用しているにもかかわらず、それを公言しようとする人はほとんどいないという。 Rolling Stone誌の報道によれば、著名プロデューサーのYoung Guruは「ヒップホップ制作者の半数以上が、オリジナル楽曲のライセンス取得やミュージシャンへの依頼の代わりに、AIでファンクやソウルのサンプルを生成するようになっている」と推測している。 AIストリーミング詐欺で有罪判決——8億円超を不正取得 2026年3月下旬、ノースカロライナ州の男性マイケル・スミスが、AI音楽詐欺事件で有罪を認めた。スミスは数十万曲のAI生成楽曲を作成し、ボットを使って「数十億回」にのぼるストリーミング再生を偽造。この手口により、米司法省(DOJ)によると800万ドル(約12億円)以上の著作権使用料を不正に取得していた。 ストリーミング・プラットフォームの収益分配モデルを悪用したこの手口は、業界全体のロイヤルティ制度への信頼を揺るがすものとして注目を集めている。 Apple Musicが任意ラベル制度を導入 Apple Musicは、AI生成楽曲に任意でラベルを付与できる「Transparency Tags(透明性タグ)」の導入を発表した。楽曲本体、作曲、アートワーク、ミュージックビデオの4カテゴリをカバーしており、アーティストやレコードレーベルが自主的に申告する仕組みだ。ただし申告はあくまで任意であり、タグのない楽曲がAI非使用を意味するわけではない点には注意が必要だ。 日本への影響と今後の展望 日本の音楽業界でもAI生成楽曲への関心は急速に高まっており、著作権法上の扱いや実演家の権利保護が今後の議論の焦点となる見込みだ。「AIが生成したものは『音楽』と呼べるのか」「それは『創作』なのか、単なる出力なのか」という根本的な問いに、法律・技術・倫理の三つの側面から社会全体で答えを模索していく必要がある。 元記事: All the latest in AI ‘music’

March 30, 2026 · 1 min · 胡田昌彦

Windows 11の機能展開、ユーザーが自分でコントロールできるようにMicrosoftが改善を約束

Microsoftは、Windows 11における新機能の展開方法を改善し、ユーザーが自分のPCに届く機能をより細かくコントロールできるようにすると表明した。 「段階的機能展開(CFR)」とは何か Windows 11は「Windows as a Service(サービスとしてのWindows)」モデルを採用しており、毎年の大型アップデートとは別に、新機能が随時提供される仕組みになっている。しかしその裏では、CFR(Controlled Feature Rollout=制御された機能展開)という段階的配信の仕組みが動いており、全ユーザーに同時に新機能が届くわけではない。 CFRでは、まず互換性が高いと判断されたデバイスから順に機能が解放され、安定性が確認されてから徐々に対象が広がっていく。Microsoftは公式サポートドキュメントで「月次のオプション更新プログラムをインストールしたデバイスから段階的に展開し、準備が整った段階で順次有効化する」と説明している。 「まだ届いていない」問題がユーザーの不満に CFRの意図自体は理にかなっている——Windows 11の更新プログラムは一部のPCで問題を引き起こすことが多く、慎重に展開することでトラブルを最小化できる。 だが問題は、ユーザーが「自分がどの位置にいるか」を確認する手段がないという点だ。新しいスタートメニューやタスクバーのカラフルなバッテリーアイコンなど、Microsoftが「展開した」と発表した機能も、実際には多くのユーザーが受け取るまでに6か月以上かかるケースがある。Windows Insider Programに参加して早期テストを希望したにも関わらず、機能がなかなか来ないという不満の声も根強い。 さらに、新機能だけでなく重要なバグ修正もCFRで段階展開されることがある。修正がいつ自分のPCに適用されるか分からず、最終的に適用されない可能性もある——これがユーザーのフラストレーションを高めている。 MicrosoftのWindows設計責任者が改善を約束 この問題について、WindowsおよびデバイスのデザインとリサーチをリードするMarcus Ash氏が言及。「CFRの点についても取り組んでいる。ユーザーが見たい機能を自分でコントロールしながらアクセスできるようにしたい」と述べた。 Ash氏はまた、ITプロ向けに知られるWindowsエージェント「Aria」を一般コンシューマー向けにも活用する方向で進めていると明かした。Ariaはもともと、IT管理者がWindows更新プログラムや機能展開、グループポリシーをより細かく管理できるよう支援するツールとして知られており、今後はLTSC/Enterprise向けの思想がコンシューマー版にも取り入れられる可能性がある。 Windows改善プロジェクトの一環として Microsoftは現在、「Windowsを修正するプロジェクト」として複数の改善に取り組んでいる。その中には、CFRの改善のほか、初期セットアップ体験(OOBE)の簡素化、OS内の広告削減、ファイルエクスプローラーの高速化、WebViewへの依存を減らしたネイティブUIの拡充なども含まれている。 Windows 11の機能展開をめぐるユーザーの不満は根深く、改善が実現すれば大きな前進となる。具体的な仕様や提供時期については今後の発表に注目したい。 元記事: Microsoft promises more control over Windows 11 feature rollouts as some changes take months to show up

March 30, 2026 · 1 min · 胡田昌彦

AIスクレイパーを毒の無限ループに閉じ込めるツール「Miasma」が登場

AIによる無断スクレイピングに対抗する新ツール「Miasma」 AI企業によるWebサイトへの無断スクレイピング(データ収集)が深刻化するなか、これに対抗するRust製オープンソースツール「Miasma」がGitHubで公開され、注目を集めている。 Miasmaとは何か Miasmaは、悪意ある自動収集ボット(スクレイパー)を「毒入りデータの無限ループ」に誘い込むことで、AIの学習データ収集を妨害するサーバーツールだ。仕組みはシンプルかつ巧妙で、スクレイパーが訪れたページには偽のゴミデータと、同じサーバーへの自己参照リンクが複数埋め込まれる。スクレイパーはそのリンクを追い続け、永遠に抜け出せない「スラップ(質の低いコンテンツ)の無限ビュッフェ」にはまり込む。 Rustで実装されているため動作が非常に高速で、メモリ消費量も最小限に抑えられている。同時接続数50に制限した場合のピークメモリ使用量は約50〜60MB程度で、サーバーリソースへの影響は軽微だ。 設置方法 インストールはCargoで一行で完了する。 元記事: Miasma: A tool to trap AI web scrapers in an endless poison pit

March 30, 2026 · 1 min · 胡田昌彦

AIの顔認識で無実の女性が5ヶ月拘束——米国で相次ぐ誤認逮捕の実態

AIの顔認識で無実の女性が5ヶ月拘束——米国で相次ぐ誤認逮捕の実態 米国テネシー州に住む50歳の女性、アンジェラ・リップス(Angela Lipps)さんが、AI顔認識ツールによる誤った識別をきっかけに逮捕され、5ヶ月以上にわたって拘置されるという深刻な冤罪事件が明らかになった。 事件の経緯 2025年7月、ノースダコタ州ファーゴ周辺で複数の銀行詐欺事件が発生。捜査当局はその容疑者の特定に際し、隣接するウェストファーゴ警察が導入していたAI顔認識システムを利用した。このシステムは、SNSを含むインターネット上から数十億枚の画像を収集したデータベースを持つスタートアップ企業「Clearview AI」が提供するものだった。 ウェストファーゴ警察によると、Clearview AIは「アンジェラ・リップスと類似した特徴を持つ候補者」を識別。この結果がファーゴ警察に共有されたことで、テネシー州在住のリップスさんを指す逮捕状が発行された。しかし彼女は、事件が起きたノースダコタ州に行ったことすらなかったと主張している。 リップスさんは7月14日にテネシー州で逮捕され、3ヶ月以上テネシー州の拘置所に収容された後、ノースダコタ州に移送。重罪窃盗や個人情報の不正利用などの複数の容疑をかけられ、合計で5ヶ月以上の拘束を余儀なくされた。 警察側の対応と問題点 ファーゴ警察署長のデイブ・ジボルスキ(Dave Zibolski)氏はCNNの取材に対し、「ウェストファーゴがAI顔認識システムを独自購入していたことを幹部レベルでは把握していなかった。把握していれば使用を許可しなかった」と述べ、現在は同システムの使用を禁止していることを明らかにした。 同氏は「捜査において一定の誤りがあった」と認めたものの、直接的な謝罪には至っていない。 AI顔認識の精度問題と人権リスク この事件はAI顔認識技術が孕む深刻なリスクを改めて浮き彫りにした。米国では他にも類似の誤認逮捕事例が報告されており、特に特定の人種・性別に対して識別精度が低下するという研究結果も複数存在する。 Clearview AIは企業・政府機関向けに顔認識サービスを提供する企業で、日本を含む各国でプライバシー法違反として調査・制裁を受けた経緯がある。EUではGDPR違反として制裁金が科されたケースもある。 日本への示唆 日本でも警察や自治体によるAI・カメラ活用が広がりつつある中、識別精度の検証プロセスや使用ガイドラインの整備、そして冤罪防止のための制度設計が急務となっている。AI技術は犯罪捜査を効率化する一方で、誤用・過信によって無実の市民が甚大な被害を受けるリスクがあることを、本事件は改めて示している。 リップスさんは最終的に全ての容疑が取り下げられ釈放されたが、5ヶ月以上を拘束されたことによる精神的・社会的ダメージは計り知れない。 元記事: Police used AI facial recognition to wrongly arrest TN woman for crimes in ND

March 30, 2026 · 1 min · 胡田昌彦

ChatGPTは入力前にCloudflareがReactの状態を読んでいた――暗号化プログラムを解読した話

ChatGPTへのメッセージ送信前、Cloudflareはあなたのブラウザで何かを実行している ChatGPTにメッセージを入力するたびに、Cloudflare Turnstileと呼ばれるプログラムがバックグラウンドでひっそりと動いている。セキュリティ研究者がネットワークトラフィックからこのプログラムを377件解読したところ、一般的なブラウザフィンガープリンティングを大きく超える仕組みが明らかになった。 55項目、3層構造のチェック このプログラムが収集するデータは55種類にのぼり、以下の3つの層に分類される。 Layer 1: ブラウザフィンガープリント WebGL(8項目): GPUベンダー名・レンダラー情報など スクリーン(8項目): 解像度、色深度、有効表示領域など ハードウェア(5項目): CPUコア数、搭載メモリ、タッチポイント数など フォント計測(4項目): 非表示のdiv要素を生成し、特定フォントでテキストを描画して寸法を測定 DOM操作・ストレージ(計13項目): localStorage にフィンガープリントを保存し、ページ再読み込みをまたいで継続的に追跡 Layer 2: Cloudflareネットワーク情報 エッジサーバが付与するヘッダから、接続元都市・緯度経度・IPアドレス・地域を取得。Cloudflareのネットワークを経由していないリクエストではこれらの値が欠落するため、直接オリジンサーバに接続するボットを検知できる。 Layer 3: ChatGPTのReactアプリ状態 ここが最も注目すべき点だ。プログラムは __reactRouterContext、loaderData、clientBootstrap といったChatGPT固有のReact内部状態を直接参照する。つまりTurnstileは「本物のブラウザが動いているか」だけでなく、「本物のブラウザ上でChatGPTのSPAが完全に起動しているか」まで検証している。ブラウザフィンガープリントを偽装しても、実際にChatGPTのSPAをレンダリングしていないボットはここで弾かれる。 暗号化の仕組みと解読方法 Turnstileのバイトコードは暗号化されて届く。サーバはレスポンス内の turnstile.dx フィールドに約28,000文字のBase64データを送信し、これはリクエストごとに変化する。 外側の暗号化はprepareリクエストの p トークンとのXOR演算で解除できる。両者は同一のHTTPやり取りの中に存在するため、復号は難しくない。 内側には19KBの暗号化ブロブが存在し、最初は performance.now() 由来のエフェメラルキーを使用していると思われた。しかしバイトコードを詳しく調べると、XORキーそのものがバイトコード内に 97.35 という浮動小数点リテラルとして埋め込まれていることが判明。377件中すべてのリクエストで、この値を使えば正しいJSONに復号できることが確認された。 復号に必要なものは、HTTPリクエストとレスポンスだけだ。 ボット対策の最前線 解読されたプログラムは、28種類のオペコード(ADD、XOR、CALL、JSON_STRINGIFYなど)を持つカスタムVMで動作し、レジスタのアドレスはリクエストごとにランダム化される。 この仕組みは、現代のボット対策がどこまで深く踏み込んでいるかを示している。GPUの種類やフォントの描画寸法といった低レベルな情報から、アプリケーション固有のJavaScript状態まで、ブラウザ環境全体を丸ごと検証することで、巧妙なボットを排除しようとしている。裏を返せば、プライバシーの観点から「どこまでが許容範囲か」という問いを改めて提起している。 元記事: ChatGPT won’t let you type until Cloudflare reads your React state

March 30, 2026 · 1 min · 胡田昌彦

Linus Torvalds、Linux 7.0 RC6のパッチ数異常増加に懸念——AIが開発を混乱させているのか?

Linus Torvalds、Linux 7.0 RC6のパッチ急増に懸念を表明 Linuxカーネルの生みの親であるLinus Torvalds氏が、開発中のLinux 7.0においてリリース候補版(RC: Release Candidate)の第6段階(RC6)でパッチ数が異常に多くなっていることへの懸念を表明した。通常、RCが進むにつれてパッチ数は減少していくはずだが、今回は後期段階にもかかわらず想定外の「急増(bump)」が発生した。 リリース候補版とは Linuxカーネルの開発では、新バージョンが公開される前に複数回のリリース候補版が公開される。RC1から始まり、バグ修正が進むにつれてRC2、RC3と番号が上がっていく。通常、RC6やRC7になるころには大きな変更は少なくなり、安定版リリースへの準備が整う段階となる。今回のRC6での急増は、このサイクルから外れた異常事態を示している。 AIが開発プロセスに影響を与えている可能性 Torvalds氏が特に注目しているのは、このパッチ急増の原因としてAI(人工知能)の関与が疑われる点だ。近年、AIを活用してコードのバグ修正やパッチ生成を行う開発者が増えている。こうしたAI生成コードが品質確認不十分なまま提出されると、後の段階で多くの問題が発覚し、修正パッチの数が膨らむ可能性がある。 Linuxコミュニティでは以前からAIツールを使ったパッチ提出の品質問題が議論されており、Torvalds氏自身もAI生成コードのレビューに対して慎重な姿勢を示してきた。 安定版リリースへの影響 RC段階での予想外のパッチ急増は、安定版(7.0正式リリース)の遅延につながる可能性がある。Linuxカーネルは通常、約9〜10週間の開発サイクルで新バージョンをリリースするが、後期段階での大きな変更は追加のRC版が必要になる場合がある。 日本国内でも、サーバーやクラウドインフラ、組み込みシステムに広くLinuxカーネルを採用している企業にとって、安定版リリーススケジュールの変動は影響が出る可能性がある。 オープンソース開発とAIの課題 今回の件は、AI支援による開発効率化が必ずしもコード品質の向上につながらない現実を改めて示している。特にLinuxのような世界中のインフラを支えるソフトウェアでは、パッチの質が非常に重要であり、AIツールの使用には慎重なレビューが不可欠だ。今後、LinuxカーネルコミュニティがどのようにAI生成コードの審査基準を設けるかが注目される。 元記事: Linus Torvalds expresses concerns over unusually large Linux 7.0 RC6 patch count

March 30, 2026 · 1 min · 胡田昌彦

AIエージェントの能力は向上中、しかし「信頼性」は依然として大きな課題

AIエージェントの「信頼性問題」が本番導入の壁に AIエージェントの能力は急速に向上している。しかし、実際に業務で使えるレベルの「信頼性」という観点では、まだ大きな課題が残っているという実態が浮かび上がってきた。 著名なAI研究者であるプリンストン大学のサヤシュ・カプール氏とアルビンド・ナラヤナン氏(共著書『AI Snakeoil(AIインチキ医療)』で知られる)は最近、4名の計算機科学者と共同で「AIエージェント信頼性の科学に向けて(Towards a Science of AI Agent Reliability)」という論文を発表した。 「平均精度」だけでは見えない落とし穴 この論文が指摘する核心は、現在のAIモデル評価が「平均精度」に偏りすぎているという点だ。平均スコアが高くても、特定の条件下では極端に失敗する可能性があり、実運用には耐えられない。 研究チームは信頼性を以下の4つの次元で評価することを提唱している。 一貫性(Consistency): 同じタスクを同じ条件で与えたとき、常に同じ結果を出せるか 堅牢性(Robustness): 理想的でない条件下でも正しく動作できるか 校正精度(Calibration): 自分の回答の確信度を正確にユーザーに伝えられるか 安全性(Safety): 失敗したとき、その影響はどれほど深刻か さらにこの4領域を14の具体的な指標に細分化し、2025年11月末時点の最新モデル群(OpenAI GPT-5.2、Anthropic Claude Opus 4.5、Google Gemini 3 Proなど)を対象に検証を行った。 精度の向上に信頼性が追いつかない 結果は衝撃的だった。モデルの世代が進むにつれて信頼性は確かに改善されているが、その改善速度が精度の向上に比べてはるかに遅い。汎用エージェントタスクのベンチマークでは、信頼性の改善率は精度の半分にとどまり、カスタマーサポート向けベンチマークでは何と7分の1という結果が出た。 総合信頼性スコアではClaude Opus 4.5とGemini 3 Proが85%でトップだったが、14の個別指標を見ると依然として懸念点は多い。たとえばGemini 3 Proは自分の回答が正確かどうかを判断する「校正精度」が低く、誤った情報を自信満々に提示するリスクがある。 現場でも顕在化する不安定さ こうした研究上の懸念は、実際の利用現場でも実感されている。PerplexityのコンピューターエージェントはAnthropicのClaude Sonnet 4.6を使い、地元のリサイクルセンターへの予約を難なくこなした一方で、出張フライトの検索という「AIの得意領域」とされるタスクでは45分間トークンを消費した末に失敗。AnthropicがロンドンでのAIデモイベントで披露したClaude Coworkは、Excelの簡単なデータ整列には手間取りながらも、複雑な予算予測モデルは問題なく構築するという一貫性のなさを露呈した。 日本企業が押さえるべきポイント AIエージェントの本番導入を検討している日本企業にとって、この研究が示す教訓は明確だ。「デモで動いた」「精度評価が高い」だけで導入を判断するのは危険であり、実際の業務環境での一貫性・堅牢性・失敗時の影響範囲まで含めた多面的な評価が不可欠となる。特に金融・医療・法務などミスが許されない領域での活用には、信頼性評価の枠組みを独自に構築することが求められるだろう。 AIエージェントの「信頼性」は技術競争の次の主戦場になりつつある。 元記事: Fortune: AI Agents Are Getting More Capable, But Reliability Is Still Lagging

March 30, 2026 · 1 min · 胡田昌彦

AnthropicがAI研究機関「Anthropic Institute」を設立——経済・安全保障への影響を専門研究

AnthropicがAI政策研究機関「Anthropic Institute」を設立 Claude開発元のAnthropicは、高度なAIシステムが経済・社会・国家安全保障に与える影響を専門的に研究する機関「Anthropic Institute」の設立を発表した。 設立の背景と目的 生成AI(Generative AI)の急速な普及に伴い、AIが労働市場や産業構造、さらには国家間の競争力バランスにどのような変化をもたらすかという問いが、各国政府や企業にとって喫緊の課題となっている。Anthropic Instituteは、こうした問いに対して独立した研究成果を提供することを主な使命として掲げている。 具体的な研究領域としては以下が挙げられている。 経済的影響:AI導入による雇用・産業構造の変化、生産性への効果 社会的影響:情報格差、教育・医療分野でのAI活用の公平性 安全保障上の影響:サイバーセキュリティ、軍事応用、国家間のAI競争 AIガバナンスへの貢献を狙う Anthropicは従来から「責任あるAI開発(Responsible AI Development)」を企業理念の中核に据えており、Anthropic Instituteの設立もその延長線上にある取り組みだ。研究成果を政策立案者や規制当局に提供することで、AI関連の法整備やガバナンス枠組みの形成に寄与することが期待されている。 日本においても、内閣府や経済産業省がAIに関する政策議論を活発化させており、こうした独立研究機関からのエビデンスベースの知見は、国内の政策形成にも間接的な影響を与える可能性がある。 Big Tech各社が相次いでAI政策研究に注力 Anthropicの動きは業界全体のトレンドとも一致している。OpenAI、Google DeepMind、Metaなど主要なAI企業が、技術開発と並行してAIの社会的影響に関する研究部門を強化しており、規制当局との対話を重視する姿勢が鮮明になっている。 Anthropicは2026年に入り、Claude 3系列の大規模アップデートを連続して投入するなど技術競争の最前線に立ちながら、今回の機関設立によって「技術力」と「社会的信頼性」を両輪で強化する戦略を明確にした形だ。 元記事: Anthropic Launches Anthropic Institute to Study AI’s Economic and Security Impacts

March 30, 2026 · 1 min · 胡田昌彦

Gartner予測:2030年までに1兆パラメータLLMの推論コストが90%以上低下——生成AI普及の経済的障壁が崩れる

大規模言語モデルの「コスト革命」が近づいている 調査・コンサルティング大手のGartnerは2026年3月25日、2030年までに1兆パラメータ(1 trillion parameters)規模の大規模言語モデル(LLM)に対する推論(inference)コストが、2025年時点と比べて90%以上低下するという予測を発表した。 この予測が現実のものとなれば、GPT-4やClaude、Gemini Ultraといった最先端モデルと同等かそれ以上の規模のモデルを活用するコストが現在の10分の1以下になる計算だ。企業にとって生成AIの本格導入を妨げてきた「コスト」という最大の壁が、大きく崩れることを意味する。 なぜコストはここまで下がるのか Gartnerがこの大胆な予測の根拠として挙げているのは、主に以下の3つのトレンドだ。 1. 半導体・ハードウェアの進化 NVIDIAをはじめとするGPUメーカーや、GoogleのTPU、AWSのTrainium/Inferentiaといった専用AIアクセラレータの性能は、ムーアの法則を超える速度で向上している。推論専用チップの登場により、同じ電力・コストで処理できるトークン数が飛躍的に増加する見込みだ。 2. モデル効率化技術の成熟 量子化(Quantization)、蒸留(Distillation)、スパース化(Sparsification)といった技術により、モデルの精度を維持しながら計算量を大幅に削減する手法が急速に洗練されている。特に「推論時の計算スケーリング」(Inference-time Compute Scaling)と呼ばれるアプローチは、必要な処理を動的に調整することでコスト効率を高める有望な方向性として注目されている。 3. クラウドプロバイダー間の競争激化 Azure OpenAI、Google Vertex AI、AWS Bedrockといった主要クラウドのAI推論サービスは、激しい価格競争を展開している。実際、GPT-4 Turboの登場以降、主要モデルのAPI価格は数ヶ月単位で数十〜数百%規模の値下げが繰り返されており、この傾向は今後も続くと見られる。 日本企業への影響 日本では現在、多くの企業が生成AIのPoCや社内導入を進めているが、「コストが見合わない」「大量処理をすると費用が膨らむ」という声は根強い。しかし2030年にかけてコストが90%超低下するとなれば、現在は費用対効果が合わないとされているユースケース——大量文書の自動分析、リアルタイム顧客対応、高頻度の意思決定支援——が一気に現実的な選択肢になる。 Gartnerのこの予測は単なる楽観論ではなく、過去のクラウドコンピューティングやストレージのコスト低下曲線と類似したパターンに基づいたものだ。2010年代前半には「クラウドは高すぎる」と言われていたが、今やほぼすべての企業システムがクラウド前提で設計されている。生成AIも同じ軌跡を辿る可能性が高い。 生成AIの「民主化」が加速する 推論コストの劇的な低下は、生成AIを一部の大企業やテック企業だけのものではなく、中小企業やスタートアップ、さらには個人開発者まで広く使えるインフラへと変貌させる起爆剤になり得る。 Gartnerのこの予測を念頭に置けば、今まさに生成AIの活用基盤を整備し、ユースケースを探索している企業は、2030年に向けて大きなアドバンテージを持つことになる。コストが障壁だった分野への投資を今から準備しておくことが、次の競争優位を生む鍵となりそうだ。 元記事: Gartner: LLM Inference Costs to Drop 90%+ by 2030 for 1 Trillion Parameter Models

March 30, 2026 · 1 min · 胡田昌彦

MicrosoftがSecure Boot証明書を刷新——2026年6月の期限切れ前に自動配布開始

Microsoftは、2011年から使用されてきたSecure Boot証明書が2026年6月末に失効する問題に対応するため、月例Windowsアップデートを通じて新しい証明書の配布を開始した。 Secure Bootとは Secure Bootは、UEFIファームウェアを搭載したコンピューターにおいて、信頼されたブートローダーのみが起動できるようにする仕組みだ。システム起動時にデジタル署名をファームウェア内の証明書と照合することで、ルートキットなどの悪意あるソフトウェアの実行を防ぐ。現代のPCセキュリティにおける根幹技術の一つである。 15年以上にわたる証明書がついに失効へ MicrosoftのWindows Servicing and Deliveryパートナーディレクターであるヌノ・コスタ氏は「15年以上にわたって稼働してきた元のSecure Boot証明書が、計画されたライフサイクルの終わりを迎え、2026年6月末から失効し始める」と説明した。 Microsoftは今年1月に証明書更新計画を発表。対象はWindows 11 24H2および25H2を搭載する対応デバイスで、Microsoftが更新を管理しているデバイスには月例アップデート経由で新証明書が自動インストールされる。また、2024年以降に製造された多くのPCや昨年出荷されたほぼ全てのPCには、すでに更新済みの証明書が含まれているという。 IT管理者が注意すべきポイント コスタ氏は今回の更新を「Windowsエコシステム全体で最大規模の協調セキュリティメンテナンス作業の一つ」と位置づけた。多数のハードウェアメーカーおよびOEM(相手先ブランド製造業者)が関わる、数百万台規模のデバイス構成にまたがるファームウェア更新が必要となるためだ。 企業環境では特に注意が必要だ。一部のデバイスでは、新証明書を適用する前にメーカーからの個別のファームウェア更新が必要となる場合がある。Microsoftは各OEMのサポートページで最新ファームウェアバージョンを確認するよう促している。 IT管理者向けには、レジストリキー、グループポリシー設定、Windows Configuration System(WinCS)を使ったSecure Boot証明書の手動展開も可能だ。 証明書未更新の場合のリスク 6月までに証明書を更新できなかったデバイスも通常通り動作は継続するが、Microsoftが「セキュリティ低下状態」と呼ぶ状態に入る。この状態ではブートレベルの保護が「限定的」となり、新たに発見された脆弱性への対策パッチを受け取れなくなるため、新たな攻撃に対して無防備になる可能性がある。 Windows 10ユーザーは対象外 MicrosoftはすべてのユーザーにWindows 11へのアップグレードを推奨しており、すでに10億台以上のデバイスでWindows 11が稼働していると発表している。Windows 10など非サポートバージョン(Extended Security Updates加入者を除く)はWindowsアップデートを受け取れないため、新証明書も配布されない点に注意が必要だ。 日本のIT管理者にとっても、社内デバイスのOSバージョン確認とファームウェア更新の計画策定を早急に進めることが求められる。 元記事: Microsoft rolls out new Secure Boot certificates before June expiration

March 30, 2026 · 1 min · 胡田昌彦

Azure SQL Managed Instance、SQL Server 2025 更新ポリシーが一般提供(GA)開始——旧ポリシー廃止スケジュールも明らかに

Azure SQL Managed Instance に SQL Server 2025 更新ポリシーが正式提供開始 Microsoft は、Azure SQL Managed Instance(SQL MI)における SQL Server 2025 更新ポリシー(Update Policy) の一般提供(General Availability / GA)を発表した。これにより、企業はエンジンバージョンの更新サイクルをより柔軟にコントロールできるようになる。 更新ポリシーとは何か SQL MI の更新ポリシーは、マネージドインスタンスが追従するエンジンバージョンのトラックを定義する設定だ。従来の SQL Server 2022 ポリシー では、最新の SQL Server 2022 互換アップデートが自動適用されていたが、新しい SQL Server 2025 ポリシー では、SQL Server 2025 相当の機能アップデートをいち早く受け取ることが可能になる。 変更の影響範囲 今回の GA にともない、以下の管理インターフェースで新ポリシーの設定変更が可能になった。 Azure Portal — インスタンス設定画面の UI が更新され、ドロップダウンから新ポリシーを選択できる REST API — updatePolicy プロパティ経由でプログラム設定に対応 PowerShell — Set-AzSqlInstance コマンドレットにパラメーターが追加 Azure CLI — az sql mi update コマンドでも同様に設定可能 IaC(Infrastructure as Code)でインスタンスを管理しているチームは、Bicep や Terraform のテンプレートに updatePolicy の明示指定を追加しておくことで、意図しないポリシー変更を防げる。 ...

March 30, 2026 · 1 min · 胡田昌彦

Pythonパッケージの脆弱性を一括チェック——OSV.dev APIを活用した無料ツールが登場

Pythonプロジェクトの依存関係を脆弱性データベースで即チェック Simon Willison氏が、Pythonプロジェクトの依存パッケージに含まれる既知の脆弱性を一括検索できるWebツール「Python Vulnerability Lookup」を公開した。 使い方はシンプル——設定不要で即利用可能 使い方は非常にシンプルだ。プロジェクトの pyproject.toml または requirements.txt の内容をテキストエリアに貼り付けるか、依存関係ファイルを含むGitHubリポジトリ名を入力するだけでよい。ツールはGoogleが運営するオープンソース脆弱性データベース OSV.dev のJSON APIに問い合わせを行い、各パッケージの既知脆弱性を一覧表示する。 表示される情報には以下が含まれる: 深刻度レベル(CVSSスコアベース) 影響を受けるバージョン範囲 詳細な開示レポートへのリンク OSV.devのオープンCORS APIを活用 今回のツール開発のきっかけは、OSV.devがCORSを許可したオープンなJSON APIを提供していることをWillison氏が発見したことだ。CORSが許可されているため、バックエンドサーバーを介さずブラウザから直接APIを叩けるシングルページのHTMLツールとして実装できた。 OSV.dev(Open Source Vulnerabilities)はGoogleが主導するプロジェクトで、Python(PyPI)をはじめ、npm、Go、Rust、Javaなど多数のエコシステムの脆弱性情報を一元管理している。NVDやGitHub Advisory Databaseとも連携しており、日本の開発現場でも活用が広がっている。 ツール自体もAIで開発——「バイブコーディング」の実践例として Willison氏はこのツール自体を Claude Code を使って構築したことも明かしている。AIアシスタントと対話しながらコードを書く「バイブコーディング(Vibe Coding)」のひとつの実践例として紹介されており、軽量なHTMLツールをAIで素早く実装するアプローチの有効性を示している。 サプライチェーン攻撃対策として活用を Pythonプロジェクトの依存関係を狙ったサプライチェーン攻撃は近年増加傾向にある。pip audit や GitHub Dependabotといった既存ツールと並んで、本ツールをCI/CDの事前チェックや定期的なセキュリティレビューに組み込むことで、脆弱なパッケージの早期発見に役立てられるだろう。 ツールはブラウザ上で動作し、インストール不要・無料で利用可能。 元記事: Python Vulnerability Lookup

March 29, 2026 · 1 min · 胡田昌彦

DOM不要で折り返しテキストの高さを高速計算——Reactコア開発者が新ライブラリ「Pretext」を公開

DOMを触らずにテキストの高さを計算する「Pretext」 Reactコア開発者であり、アニメーションライブラリ「react-motion」の作者として知られるCheng Lou氏が、新しいブラウザ向けライブラリ「Pretext」を公開した。 解決する課題:折り返しテキストの高さ計算 Webアプリケーション開発において、折り返しを含む段落テキストの高さを事前に求めることは、意外と難しい問題だ。一般的な手法では、実際にDOMへ要素を描画してからgetBoundingClientRect()等で寸法を取得するが、この操作はレイアウト再計算(リフロー)を強制するため非常にコストが高い。動的なテキストレイアウトが求められるリッチなUIでは、これがパフォーマンスのボトルネックになりやすかった。 PretextはDOMに一切触れることなく、この計算を高速に行う。 仕組み:prepare() と layout() の分離 Pretextの核心は、処理を2段階に分離した設計にある。 prepare() 関数では、入力テキストをセグメント(単語単位。ソフトハイフン・非ラテン文字列・絵文字にも対応)に分割し、オフスクリーンCanvas上で各セグメントの寸法を測定してキャッシュする。この処理は比較的コストがかかるが、一度だけ実行すればよい。 layout() 関数では、キャッシュ済みの計測結果を使い、ブラウザのワードラップロジックをエミュレートして、指定した横幅での折り返し行数と全体の高さを算出する。layout()は軽量なため何度でも高速に呼び出せる。この分離設計により、幅が変わるたびに再計算が必要なレスポンシブレイアウトでも効率的に動作する。 テスト手法も注目に値する Pretextのテスト戦略も印象的だ。初期のテストでは「華麗なるギャツビー(The Great Gatsby)」全文を複数ブラウザで実際にレンダリングし、Pretextの推定値との一致を確認した。現在はcorpora/フォルダに、タイ語・中国語・韓国語・日本語・アラビア語などのパブリックドメイン文書を追加し、多言語での精度検証を行っている。日本語のような複雑な文字組み処理にも対応している点は、日本のWeb開発者にとって注目ポイントだ。 活用シーン このライブラリが実現するのは、これまでパフォーマンス上の理由から諦めていたリッチなテキスト演出だ。テキストの行数に応じたアニメーション、動的なテキストフィット、仮想スクロールリストでの正確な高さ事前計算などに活用できる。 PretextはGitHub上でオープンソースとして公開されており、TypeScriptで実装されている。 元記事: Pretext

March 29, 2026 · 1 min · 胡田昌彦

OpenAIがSoraを6ヶ月でシャットダウン——AI動画ブームへの現実的な警鐘

OpenAI、Soraを突然終了——AI動画の「現実チェック」が始まった OpenAIは今週、昨年10月に公開したばかりのAI動画生成アプリ「Sora」と関連する動画モデル群をシャットダウンすると発表した。サービス開始からわずか6ヶ月での撤退という異例の決断は、業界に大きな波紋を呼んでいる。 IPO前のピボット——エンタープライズへの集中 ウォール・ストリート・ジャーナルの報道によれば、今回の決定の背景には、OpenAIが株式公開(IPO)を視野に入れながら、コンシューマー向けソーシャルアプリよりも企業向け製品・開発者ツール・生産性向上サービスへのリソース集中を優先するという戦略的判断がある。 Soraのコンセプト自体も問題視された。「人のいないソーシャルネットワーク」とも言われ、ユーザーが生成した動画スラップ(低品質コンテンツ)が溢れる構造は、そもそも人々にとって意味を見出しにくいプロダクトだった。 ChatGPTの成功は「幸運」だったのか TechCrunchのEquityポッドキャストでは、この決断の意味をより鋭く分析している。編集者のSean O’Kaneは、「ChatGPTがあれほど成功したのには、ある種の幸運の要素があった」と指摘する。 ChatGPTが数億ユーザーを抱えるメガプロダクトに育ったのは確かに事実だ。しかし同じ会社が「次も必ず当てられる」と高をくくってSoraを展開したことは、プロダクト開発の本質を見誤った可能性がある——人々が継続的に「意味を感じられる」ものでなければ、どんなAIプロダクトも生き残れないというシンプルな原則だ。 むしろポジティブ?「失敗を恐れない文化」の証明 一方で、TechCrunchのKirsten Korosecはこの決断を高く評価している。 「私はOpenAIを褒めたい。上手くいかないプロダクトを素早く見切り、失敗を感じさせずに撤退できる企業文化は、AIラボとしての成熟を示している」 確かに、資金を投じて開発したプロジェクトを損切りする判断は容易ではない。それでも迅速に軌道修正できる組織能力は、長期的な競争力に直結する。 ByteDanceも慎重姿勢——AI動画全体が転換点に こうした動きはOpenAI単独の話にとどまらない。中国系テック大手ByteDanceも、AI動画モデル「Seedance 2.0」のグローバル展開を遅らせているとの報道がある。 AI動画生成技術は「Hollywood を代替する」と囁かれるほどの期待を集めてきた。しかし現実には、ビジネスモデルの確立、コンテンツ品質の担保、著作権問題など、技術的な進歩だけでは解決できない壁が立ちはだかっている。 日本でも映像制作やCM業界でのAI動画活用に注目が集まっているが、今回の出来事は「技術が使えること」と「プロダクトとして成立すること」の間にある深い溝を改めて示唆するものと言えるだろう。 AI動画の本格的な普及は、まだ次のフェーズを待つ必要があるのかもしれない。 元記事: Sora’s shutdown could be a reality check moment for AI video

March 29, 2026 · 1 min · 胡田昌彦

Windows 11の初期セットアップが刷新へ——広告だらけの長時間OOBEにMicrosoftがついに改善を宣言

新しいPCの開封体験が台無しに——Windows 11 OOBEの現実 新しいPCを購入したときの高揚感は、セットアップ画面を前にした途端に冷めてしまう——そんな経験をした人は少なくないだろう。Windows 11の初期セットアップ(OOBE: Out-of-Box Experience)は、場合によっては45分から1時間以上かかることがあり、ユーザーの不満を集めてきた。 この問題に対し、Microsoftはついに改善を約束した。同社が公表した「Windowsの品質向上へのコミットメント」では、セットアップ体験を「より静かでシンプルに、ページ数と再起動回数を削減」すると明言。さらに、セットアップ中のアップデートをスキップして「より素早くデスクトップに到達できる」ようにする機能も追加される予定だ。 セットアップ中に何が起きているのか IT系メディア「Windows Latest」の実機テストでは、セットアップ開始からデスクトップ表示まで1時間超を要したことが判明した。YouTuberのMKBHDも、Dell XPSのセットアップに45分かかったと報告しており、これは特定機種の問題ではなく、Windows 11全般に共通する課題だ。 セットアップのフローを追うと問題点が浮かび上がる。デバイス名の設定後、自動的にWindows Updateが起動し、複数回のダウンロードとインストールが繰り返される。更新が1回完了しても再びチェックが走り、さらに新しい更新が見つかるという「ループ」が発生することもある。ダウンロードが99%に達した段階で「後で更新」ボタンが表示されるが、気づかず見逃してしまうユーザーも多い。 時間だけが問題ではない。セットアップの随所にMicrosoftサービスへのアップセル(追加販売)画面や広告が挿入されており、ユーザーは何度もスキップ操作を強いられる。 macOSとの比較で際立つ差 AppleのmacOSは、新しいMacを購入した際のセットアップが数分で完了し、無駄な割り込みも少ないとして高く評価されている。MicrosoftがIntelの次世代CPU「Panther Lake」やQualcommの「Snapdragon X2」搭載PCの登場を控える中、セットアップ体験の差はハードウェアを選ぶ消費者の判断にも影響しかねない。 なお、今回のOOBE改善にあわせて、デフォルトのユーザーフォルダ名(Documents、Downloads等の親フォルダ)をセットアップ時に変更できる機能も追加される。これまではメールアドレスの先頭数文字が自動的にフォルダ名になっており、後から変更するのが難しいという不満があったため、実用面でも歓迎される変更だ。 改善はいつ来るのか Microsoftは具体的なリリース時期を明示していないが、新世代Copilot+ PCの発売ラッシュが続く2026年に向けて、早期の実装が期待される。長年のユーザー不満に応える形で、Windows 11のファーストインプレッションが大きく変わる可能性がある。 元記事: Windows 11 OOBE is a cluttered, ad-filled mess, and Microsoft is finally trying to fix it

March 29, 2026 · 1 min · 胡田昌彦

AI・テクノロジーの情報を発信しています

YouTube

AI・テクノロジーの最新トレンドを動画で配信中

note

技術コラム・深掘り記事を公開中