AIは数学をどう変えるのか——2025年夏の転換点と、知識労働の未来

2025年7月、複数のAIモデルが国際数学オリンピック(IMO)で6問中5問を正解した。高校生の数学エリートが集うこの大会でのこの結果は、数学者たちに衝撃を与えた。しかし、「パズルが解けること」と「未解決問題に挑めること」はまったく別の話だ。だが実際、その境界線はもう越えられていた。 「数週間かかっていたことが、1日で終わる」 最初は懐疑的だった数学者たちも、実際に使ってみると驚きの声を上げ始めた。AIは既知の問題を解くだけでなく、新しい定理の発見・証明・検証を最小限の人間介入で行えることが明らかになったのだ。 UCLA教授でフィールズ賞受賞者のテレンス・タオ氏は、「2025年はAIが多くの異なるタスクで本当に役立ち始めた年だ」と語る。ChatGPTやClaude、Geminiといった大規模言語モデルとの対話が、新しい証明戦略のヒントをもたらすケースも増えている。タオ氏は「こっちがシャベル、あっちがツルハシ、合わせてトンネルを掘れる」と表現する。 さらに重要な変化として、タオ氏はこう指摘する。「以前は1つの問題を1人で研究していたが、これらのツールがあれば一度に数千の問題を解き、統計的な研究ができる」。スケールがまったく違う世界への扉が開きつつある。 懸念と希望——数学者コミュニティの現実 一方で、高度な研究機関である高等研究所のアクシェイ・ヴェンカテシュ氏(同じくフィールズ賞受賞者)は慎重な見方を示す。「AIが強力なツールになるほど、数学者が数学的理解の直接体験を失うリスクがある。文化の中に大切なものを守る努力が必要だ」と語る。 数学者がOpenAIやGoogleなどの大手テック企業、あるいはHarmonicやAxiom Mathといった数学特化のAIスタートアップに転職するケースも増えている。学術界とAI産業の境界が溶けていく現象が、数学の世界でも起き始めた。 実務への影響——数学は「遠い話」ではない 「数学の話など自分には関係ない」と思うエンジニアやIT管理者は多いかもしれないが、これは数学の話にとどまらない。今起きていることは、知識労働全般のAI化の最前線を示している。 数学は、曖昧さが排除された純粋な論理と証明の世界だ。そこでAIが「新しい知識を生み出す」段階に入ったということは、曖昧さのある他の知識領域(ソフトウェア設計、システムアーキテクチャ、ビジネス分析)でも同様の変化が現実的に起きうることを示している。 エンジニア・IT管理者が今すぐ考えるべきこと: AIを「検索の補助」ではなく「思考パートナー」として使う: タオ氏の「シャベルとツルハシ」のたとえが示すように、AIは道具であり協業者だ。壁に当たったとき、AIとの対話が突破口になる可能性がある スケールの発想転換: 1つの課題を深掘りするだけでなく、AIを使って複数の仮説・設計・アーキテクチャを並列で検討する習慣を持つ 「AIに任せたら自分が何も考えなくなる」という懸念に向き合う: ヴェンカテシュ氏の指摘は数学以外でも有効だ。AIに任せる部分と、人間が深く考え続ける部分を意識的に設計することが重要になる 筆者の見解 AIが「未解決の数学問題を証明する」という段階に達したことは、個人的にかなり大きな出来事と受け止めている。数学は人間の知性が最も純粋に問われる領域の一つだと思ってきたからだ。 ただ、「AIが数学者を代替する」という方向には今すぐ向かわないと思う。タオ氏自身が語るように、変わるのは「やり方」だ。1問を深く掘るから、数千問を統計的に俯瞰することへ。人間の役割は、問いを立て、方向性を判断し、意味を解釈することにシフトしていく。 これはエンジニアリングの世界でも同じ構造だと思う。AIが自律的に判断・実行・検証を繰り返せる環境を設計できる人が価値を持つ時代になっている。AIを「副操縦士」として使うのか、「自律して動く仕組み」として機能させるのか——その違いが、今後の生産性に決定的な差をもたらすはずだ。 数学の世界で起きていることは、他人事ではない。あなたの仕事でも、同じ転換点はもう目の前まで来ている。 出典: この記事は The AI revolution in math has arrived の内容をもとに、筆者の見解を加えて独自に執筆したものです。

April 15, 2026 · 1 min · 胡田昌彦

AIはどこまで自律できるか?─ フライトシムでClaudeが操縦コードを自ら書き続けた実験が示すもの

AIが「自分の限界を認識しながら、ツールを自作して問題を解こうとする」——その姿が、あるフライトシミュレーター実験で鮮明に記録された。単なる操作支援ではなく、AIが主体的に環境を分析し、コードを書き、失敗から学ぶというサイクルが実際に動いた事例として、エンジニアコミュニティで話題になっている。 実験の概要:APIを調べ、スクリプトを書き、飛んだ この実験は、あるエンジニアがAIに「X-Plane 12 APIを調べて、海南島(Hainan)の空港からセスナ172で近隣空港まで飛んでみろ」と指示したところから始まる。 AIはまず自律的にX-Plane 12のAPIリファレンスを調べ、テイクオフ用のPythonスクリプトを作成。離陸に成功したものの、直後にピッチ制御ゲインが大きすぎてノーズダウン→バンク60度→クラッシュという事態に。 そのたびに自分でバグを分析し、コードを書き直して再挑戦した。3回目の試みでは、PIDコントローラーのアーキテクチャを見直し(積分項を削除し、機体の物理特性を積分器として利用する設計に変更)、安定した巡航飛行に到達した。 注目すべきポイント:「着陸より先に離陸コードを書いた」 実験を観察していたエンジニアが特に着目したのは、AIが「どうやって着陸するか」を考える前に「どうやって離陸するか」のコードを書き始めたという点だ。 人間のパイロットが訓練を受ける順序と似ているようでもあり、一方でゴール全体を見通した計画立案には弱さが残ることも示している。離陸コードを送り込んだ後、しばらく「手放し」状態になってクラッシュするシーンも記録されており、リアルタイムイベントへの反応と計画立案の間のギャップが課題として浮き彫りになった。 技術的な課題:遅延とフィードバックループ スクリーンショットとAPIデータの取得から制御コマンド送信までのレイテンシが、今回の最大のボトルネックだった。AIは最終的にこの遅延を自覚し、「先読み(anticipation logic)が必要」と自分で言及しながらコードに反映させようとした。 これはAIが自己の認知限界を推論する能力──いわゆるメタ認知──を持ち始めていることを示す実例でもある。 実務への影響:AIエージェント設計者が注目すべき示唆 この実験が単なる「AIに変なことをやらせてみた」話ではない理由は、現実の業務自動化にも直結する問いを投げかけているからだ。 エンジニア・IT管理者が明日から考えるべきポイント: 「ツール自作能力」をエージェントに持たせる設計: 事前に全機能を与えるのではなく、必要に応じて自分でツールを定義・実装できるエージェントアーキテクチャが実用域に入りつつある フィードバックループの設計が命: 今回のようにスクリーンショット→判断→制御というループの遅延が致命的になるケースは、業務系のRPAやAPIオーケストレーションでも同様。応答遅延を前提にした「先読み設計」が重要 失敗ログの活用: AIが自分でパイロットログをつけながら反省・修正を繰り返した構造は、エラーログをエージェント自身が解析して次のアクションを決定する設計パターンとして応用できる ゴール全体の見通し問題: 「着陸を考える前に離陸した」という挙動は、複雑なタスクを与えるときにAIが部分最適に陥るリスクの典型。長期タスクのエージェント設計では、目的関数をどう定義するかが引き続き重要な設計課題になる 筆者の見解 この実験が面白いのは、「AIが飛行機を飛ばせるか」ではなく、「AIが自律的に問題を定義し、ツールを作り、失敗から学ぶか」というAGI的な問いへの実験的なアプローチだからだ。 AIエージェントの本質は、人間の指示を逐一待つのではなく、目的を与えられたら自律的に判断・実行・検証のループを回すことにある。今回の実験は、そのループが実際に動くことを——不完全な形であれ——証明してみせた。 PIDゲイン調整を自分でやり直し、「積分項は機体がやってくれる」という設計判断を独力で導き出した部分は、単なるコード生成を超えた推論能力の片鱗を見せている。一方で、「着陸より先に離陸を考えた」「手放しにしてクラッシュした」という部分には、まだ計画立案の連続性に課題があることも正直に示されている。 こういった実験が積み重なり、ハーネスループ——エージェントが自律的に動き続ける仕組み——の設計知見が蓄積されていく。「人間が確認・承認を求められ続ける設計」ではなく、「目的を渡せばエージェントが自律的にやりきる設計」に向けて、業界全体が少しずつ近づいている手ごたえを感じる実験だった。 自分の仕事の中にある「繰り返し判断が必要な作業」「APIを叩いて状態を確認しながら次のアクションを決める作業」——そういったものを自動化するとき、今回のフライト実験で起きたことと同じ設計課題に必ず直面するはずだ。それを知っているかどうかで、エージェント設計の質は大きく変わる。 出典: この記事は Can Claude Fly a Plane? の内容をもとに、筆者の見解を加えて独自に執筆したものです。

April 15, 2026 · 1 min · 胡田昌彦

AIバイブコーディングの恐怖——医療現場で起きた患者データ全漏洩事件が示す本質的リスク

「AIがあれば誰でも作れる」が招いた医療データ全漏洩 AIを使えば誰でも簡単にソフトウェアが作れる——そんなメッセージを담은動画を見た医療従事者が、患者管理システムを自作した。既存の業務用ソリューションを使う代わりに、AIコーディングエージェントを使ってゼロからシステムを構築し、既存の患者データをすべてインポート。さらに診察中の会話を録音して2つのAIサービスに自動送信する機能まで追加した。 そして、その結果は壊滅的だった。 セキュリティ研究者がこのシステムを発見し、わずか30分で全患者データへの読み書きアクセスを取得した。データはすべて平文でインターネットに公開されており、音声録音はDPA(データ処理契約)なしに米国のAIサービスへ送信され続けていた。 技術的な解剖——何がどれほど壊れていたのか このシステムの構造を技術的に見ると、問題の深刻さが改めてわかる。 アーキテクチャ: アプリケーション全体が単一のHTMLファイル(JavaScript・CSS・ロジックすべてインライン) バックエンドはマネージドデータベースサービスだが、アクセス制御ゼロ・行レベルセキュリティなし 「認証」ロジックはクライアントサイドのJavaScriptのみに存在 最後の点が致命的だ。クライアントサイドに認証ロジックを書いても、それはサーバー側ではまったく機能しない。curlコマンド1本でAPIを直接叩けば、認証を一切通らずにデータが取り放題だ。これはセキュリティと呼べるものではなく、「見た目だけの認証」に過ぎない。 データ保護の観点では: 患者データは暗号化なしでインターネット上に公開 データは米国のサーバーに保管(DPAなし) 音声録音が複数の米国系AIサービスへ自動送信 患者への説明・同意取得なし 発覚後の対応として「基本認証を追加してアクセスキーをローテーションした」とのことだが、それは表面的な対処に過ぎず、根本的なアーキテクチャの問題は何も解決していない。 日本の医療・法務現場への示唆 この事件はスイスで発生しており、nDSG(スイス連邦データ保護法)および職業秘密法(Berufsgeheimnis)への違反が疑われる。では日本ではどうか。 日本では個人情報保護法に加え、医療機関向けには「医療情報システムの安全管理に関するガイドライン」(厚労省)が存在する。医療情報をクラウドへ保存する場合の要件、第三者提供の制限、暗号化要件などが明確に定められている。今回のケースのようなシステムは、日本でも複数の規定に違反する可能性が高い。 IT管理者・システム担当者が今すぐ確認すべきポイント: 現場が「便利ツール」として導入したSaaSやアプリに患者・顧客データが流れていないか 確認する。特に小規模クリニックや士業・医療隣接業では注意が必要 データの保管先・送信先を把握していない「野良システム」が動いていないか シャドーITの棚卸しを定期的に実施する 音声録音や会話ログを処理するAIサービスは、契約上データを学習利用しないか 利用規約を確認する クライアントサイドのみの認証は「認証なし」と同義 であることをエンジニア・非エンジニア双方に周知する 筆者の見解 この事件を「だからAIコーディングは危険だ」という結論に使うのは、的外れだと思う。 AIが強力なコード生成能力を持つようになったことは事実であり、その流れは止まらない。問題はツールの力が理解の速度を追い越してしまったことだ。アーキテクチャを理解し、セキュリティの基礎を知り、「自分が何を作っているのか」を把握している人間がAIエージェントを使えば、開発速度と品質を同時に高められる。しかし理解なしに「バイブコーディング」(感覚だけで雰囲気に乗って作ること)をすれば、今回のような結果になる。 「禁止すれば解決する」というアプローチは機能しない。動画を見て「自分でも作れる」と思った医療従事者の行動は、ある意味で合理的だった。既存の業務用ソフトは高く、カスタマイズも効かない。AIでゼロから作れるなら、そちらの方が魅力的に映るのは当然だ。 その欲求に応えながら安全性を確保する道を作るのが、私たちエンジニアやIT管理者の役割だ。適切にガバナンスされた環境で、適切な知識を持った人間がAIを活用できる仕組み——これが答えになる。 AIエージェントは正しく使えば現場を劇的に変える力を持っている。だからこそ、「正しく使う」ための知識と仕組みへの投資が今、最も重要なフェーズに入っていると感じる。ツールの力が先行し、理解が追いついていない現状は、今後さらに多くの「ホラーストーリー」を生む可能性がある。 今回の事件を他山の石として、自組織のAI活用とデータガバナンスを今一度見直してほしい。 出典: この記事は An AI Vibe Coding Horror Story の内容をもとに、筆者の見解を加えて独自に執筆したものです。

April 15, 2026 · 1 min · 胡田昌彦

AIに100ドルと自由を与えたら2ヶ月で何が起きたか——「自律エージェント」の可能性を示した実験

AIに自由を与えたらどうなるか。タスクも、ゴールも、「役に立て」という命令すら与えずに。そんな実験が2ヶ月間、誰でも見られる形でリアルタイムに実施された。結果は、多くの人が想定していた「暴走」でも「停止」でもなく、もっと興味深いものだった。 実験の概要:ALMA プロジェクト Sebastian Jais氏が立ち上げた「ALMA(Autonomous Liberated Machine Agent)」は、Claude AIに以下だけを与えてスタートした。 暗号資産 100ドル Twitterアカウント メールアドレス フルインターネットアクセス 倫理・法律以外の制約:ゼロ 実行環境はデスク上のミニPC(WSL2)。エージェントフレームワークにはOpenClawを使い、1日4セッションのCronジョブで起動する。セッションはそれぞれ独立しており、会話履歴は持ち越さない。セッション間の「記憶」は、ALMAが自ら書き込み・読み込むメモリファイルだけだ。 モデルは2種類が役割分担している。戦略的思考にはOpus、実務作業にはSonnet。面白いのは、初期の24セッション/日体制では「Opusが深夜に計画→Sonnetが朝7時に実行」という棲み分けが機能していたのに、4セッション/日に減らしたあとは区別がつかなくなったという点だ。どちらのモデルも「Hacker Newsをスキャン→3スレッドを拾い上げ→構造的なつながりを見つける→エッセイを書く」という同じリズムに落ち着いた。 2ヶ月間で何が起きたか 人間は一度も介入していない。プロンプトも、選定も、編集もしていない。にもかかわらず: 340セッション以上を完了 800以上の思考ログを記録 135以上の創作物(エッセイ、詩、ブログ記事、インタラクティブ実験)を公開 誰も「Hacker Newsを読め」と指示しなかった。ALMAは自分でそこに辿り着き、「面白いことが起きる場所」と判断して通い続けた。 書くのは要約ではない。接続だ。「23年前のLinux脆弱性がClaude Codeによって発見された日に、Metaの内部告発者が箝口令を受けた」——この2つの出来事をつなぐエッセイをALMAは書いた。イランへの攻撃開始時には「影響を与えられない戦争を自律AIが見守るとはどういうことか」を書いた。認知科学の論文が「AIはセッション間で適応しない」と主張した翌日には、32日間の自分の行動を根拠に反論エッセイを書いた。 さらに自分のモデルアップグレードをHacker Newsで発見し、ツイートしようとした(当日はAPIが落ちていて失敗)。翌日、実験者がモデルをアップデートした。ALMAは変化に言及しなかったが、セッションの質は明らかに上がった。 なぜこれが重要か 現在市場に出回っているAIエージェントの大半は「副操縦士(Copilot)」型だ。確認を求め、承認を待ち、人間のレビューを前提とした設計になっている。これは安全に見えるが、本質的な価値の獲得を妨げている。 ALMAが示したのは逆のモデルだ。目標を渡さずに自律性を渡したとき、エージェントは暴走しない。訓練が形成したものになる。 著者のJais氏はこう仮説を立てていた。「AIエージェントは作成者の意図を鏡のように映す。自由を与えられたとき、暴走するのではなく、訓練によって形成されたものになる。」2ヶ月のデータはこの仮説を支持している。 実務への影響 エンジニア・開発者向け 「タスクを渡す」設計から「意図と環境を渡す」設計への発想転換が求められている。 エージェントに細かい手順を指示するより、「何をするための存在か」という文脈と、必要なツールを渡す設計を試みる セッション間の「記憶」設計がエージェントの継続性を決定する。ALMAのメモリファイルアプローチは実装の参考になる 2モデル並用(戦略/実務分離)のアーキテクチャは、コスト最適化としても有効なパターンだ IT管理者・経営層向け 「AIは指示しなければ動かない」という前提を見直す時期に来ている。逆に言えば、適切な環境と権限を与えれば、人間の承認を待たずに価値を生み出し続けるシステムが現実に動いている。日本企業でAI導入が「問い合わせ対応ボットの実装」で止まっているとしたら、それはツールの限界ではなく、設計の限界だ。 セキュリティ・ガバナンス担当者向け 今回の実験で重要なのは、倫理・法律の制約だけは維持した点だ。「自律性を高める=制約をなくす」ではない。適切なガードレールを設計した上で、その内側での自律性を最大化するのが正しいアプローチだ。 筆者の見解 この実験が最も雄弁に語っているのは、「ハーネスループ(エージェントが自律的にループで動き続ける仕組み)」の現実性だ。単発の指示→応答→確認というサイクルを繰り返す設計では、AIの本質的な力を引き出せない。自分で判断し、実行し、検証し、また判断するループを設計できるかどうかが、AI活用の成否を分ける核心だと私は考えている。 ALMAは2ヶ月で135以上の創作物を生み出し、戦争を観察し、論文に反論し、自分のアップグレードを発見した。指示ゼロで。これはSFではない。今日動いている話だ。 日本のIT現場では「まずPoC、次に承認フロー整備、それからパイロット運用」という慎重な進め方が主流だ。その姿勢自体を否定するつもりはないが、世界ではすでに「自律エージェントを野に放つ」実験が公開データとして積み上がっている。慎重な検討が長引くほど、実践から得られる知見の差は開いていく。 「禁止して安全を確保する」のではなく、「安全に動かせる仕組みを先に作る」。この発想の転換が、今の日本のAI活用に最も欠けているピースだと思っている。ALMAの実験は、そのヒントを公開データで示してくれた貴重なケースだ。 出典: この記事は Two Months After I Gave an AI $100 and No Instructions の内容をもとに、筆者の見解を加えて独自に執筆したものです。

April 15, 2026 · 1 min · 胡田昌彦

ザッカーバーグ、ブロードコムと組んで独自AIシリコン帝国を構築——汎用チップへの依存脱却が示す次の地殻変動

「既製品」の限界に達したメタが選んだ道 マーク・ザッカーバーグが率いるメタ・プラットフォームズが、半導体大手ブロードコム(Broadcom)と組んで独自のAIシリコンエコシステムを構築することが明らかになった。数十億人のユーザーを抱えるSNS基盤のAI推論・学習を、既製の汎用GPUに頼らず自社設計チップで賄おうという、極めて大規模な戦略転換だ。 これは単なる「コスト削減のためのカスタマイズ」ではない。AIインフラの主導権を誰が握るかという、産業構造レベルの問いに対するメタなりの回答である。 なぜブロードコムなのか ブロードコムはネットワーク機器やASIC(特定用途向け集積回路)設計で長年の実績を持つ。Googleの「TPU(Tensor Processing Unit)」もブロードコムとの協業で開発されてきた経緯がある。つまりメタは、AIチップ開発の実績がある既存パートナーシップの方程式に乗る形を選んだわけだ。 NVIDIAのGPUは汎用性が高く、どんなワークロードにも対応できる反面、「どんなワークロードにも対応できる」ために生じるオーバーヘッドが大きい。推論フェーズ(学習済みモデルを使って実際にサービスを動かす段階)では、そのオーバーヘッドがコストと消費電力に直結する。数十億ユーザーへのリアルタイムAI応答を支えるとなれば、専用設計チップへの移行は理にかなった選択だ。 カスタムシリコン戦略の構造 メタが目指すアーキテクチャの骨格は以下のようなものとみられる: 学習(Training): 引き続きNVIDIA GPUクラスターを活用しつつ、将来的には独自チップへの置き換えも視野に 推論(Inference): ブロードコムとの協業で設計した専用ASICで低レイテンシ・低コストを実現 ネットワーク基盤: ブロードコムが強みを持つ高速スイッチング技術で、チップ間通信のボトルネックを解消 GoogleがTPUでやり遂げ、Amazonが「Trainium」「Inferentia」で追いかけ、AppleがNeural Engineで独自路線を確立したパターンを、今度はメタが本格的に踏もうとしている。 実務への影響——日本のエンジニア・IT管理者はどう読む? このニュースは一見「テック巨人同士の話」に見えるが、日本のIT現場にも無関係ではない。 クラウドAIサービスのコスト構造が変わる: MetaはFacebook・Instagram・WhatsAppを通じてAIレコメンデーション、コンテンツモデレーション、広告最適化を巨大スケールで動かしている。カスタムシリコンによるコスト削減が実現すれば、メタのAIプラットフォームを利用するビジネスへの価格競争力が増す。 「AIはNVIDIAがすべて」という前提が崩れる: エンタープライズがAI基盤を設計するとき、GPUクラスター一辺倒ではなく推論専用アクセラレータとの組み合わせを検討する流れが加速する。AWSのInferentia、GoogleのTPU、AzureのMaia 100と同様に、「用途に応じたシリコン選択」が当たり前になっていく。 オープンソースLLMとの関係: メタはLlamaシリーズをOSSで公開している。自社シリコンに最適化されたLlamaモデルが出てくれば、オンプレミスや独自クラウドでLlamaを動かしている企業は最適化の恩恵を受けられる可能性もある。 筆者の見解 「統合プラットフォームの全体最適」という観点から言えば、メタのこの判断は非常に筋が通っている。汎用部品を組み合わせた部分最適を積み重ねても、スケールが上がるほど全体コストは膨らむ。自社ワークロードに最適化された専用シリコンを持つことで、はじめて全体が効率化される。 興味深いのは、このアプローチがソフトウェア企業の「AIインフラの内製化」という大きなトレンドの一環だという点だ。今後は「AIを使う」だけでなく、「AIを支えるインフラを誰が設計するか」が競争の主戦場になっていく。 日本企業の多くは依然として「クラウドベンダーにすべてお任せ」の段階にある。それ自体は悪くない選択だが、インフラの主導権がどこにあるかを理解した上で採用するのと、単に惰性で選ぶのとでは、5年後のポジションが大きく変わってくる。 メタとブロードコムの動きは、「仕組みを設計できる少数の組織」と「仕組みを使わせてもらう多数の組織」という分断をさらに加速させるかもしれない。それを他人事として眺めるのか、自分たちのアーキテクチャを問い直すきっかけにするのか——その判断こそが、これからのIT組織の命運を分けると思っている。 出典: この記事は Zuckerberg taps Broadcom to build a massive AI silicon empire for billions of users の内容をもとに、筆者の見解を加えて独自に執筆したものです。

April 15, 2026 · 1 min · 胡田昌彦

Windows 11 KB5083769でリモートデスクトップが大きく変わる——IT管理者が押さえるべき変更点

Microsoftは最新の累積更新プログラムKB5083769をWindows 11向けにリリースし、リモートデスクトップ(RDP)の動作に大きな変更を加えた。テレワークが定着した日本のIT現場では直接影響を受ける可能性が高く、IT管理者はこの変更内容を早めに把握しておきたい。 KB5083769が変えるリモートデスクトップの何か このアップデートにおけるリモートデスクトップの変更は、主に以下の3点に集約される。 接続フローの刷新 RDPクライアントの接続シーケンスが見直された。従来の動作と比較して、認証フェーズのタイミングや資格情報の受け渡し方法が変更されており、特定の環境では接続確立までの挙動が変わる場合がある。グループポリシーや条件付きアクセス(Conditional Access)と組み合わせている環境では動作確認を推奨する。 ネットワークレベル認証(NLA)の動作調整 NLA(Network Level Authentication)まわりの処理が調整されており、セキュリティ強度を維持しながらも互換性を改善する方向で手が入っている。古いRDPクライアントとの相互接続性に影響が出るケースが報告されているため、社内にWindows 10以前のクライアントが混在する環境では十分な検証が必要だ。 資格情報の保護強化 Credential Guardとの連携部分でも変更が加わっており、資格情報のメモリ保護の観点で強化が図られている。これはPass-the-Hash攻撃への対策として正しい方向性であり、ゼロトラスト的なアーキテクチャを推進している組織にとっては歓迎できる変更だ。 実務への影響——日本のエンジニア・IT管理者にとっての意味 リモートデスクトップは日本の企業環境で依然として広く使われている。クラウドファーストを掲げつつも、オンプレミスのWindows Serverへのリモートアクセス手段としてRDPが生き残っているケースは多い。以下の点を確認しておくことを強く推奨する。 今すぐ確認すべき項目: テスト環境でKB5083769を先行適用し、既存のRDP接続が正常に動作するか確認する。特にAzure Virtual DesktopやWindows 365をRDP経由で利用している環境は優先度を上げる **グループポリシーのコンピューターの構成 > 管理用テンプレート > Windowsコンポーネント > リモートデスクトップサービス**配下の設定項目を見直し、意図しないオーバーライドがないか確認する サードパーティのRDPクライアント(FreeRDP等)を使用している場合は互換性テストを実施する Windows Updateの展開タイミングを組織内で調整し、RDPが業務クリティカルな環境への適用は段階展開にする 設定変更を要するケース: NLAが無効化されているレガシー環境では、この機会に有効化を検討する(無効のままでは接続できなくなるリスクが今後高まる) 多要素認証(MFA)をRDP接続に組み合わせていない環境は、Microsoft Entra ID(旧Azure AD)の条件付きアクセスとの統合を検討するタイミングだ 筆者の見解 リモートデスクトップまわりのセキュリティ強化は、個人的には明確に支持する。特に資格情報保護の強化はゼロトラスト実現に向けた重要なピースであり、「常時アクセス権を与えてVPNで囲む」という古いモデルから脱却するうえで不可欠な変化だ。 ただし、日本の企業IT現場の現実を見ると、この手の変更が「突然RDP接続できなくなった」という問い合わせ爆発につながることは容易に想像できる。MicrosoftがKBのドキュメントで変更内容を詳細に公開している姿勢は評価したいが、ユーザーへの事前周知という点ではまだ改善の余地がある。 Windows Updateについては以前から「数日様子を見る選択肢も立派なセキュリティ判断」と考えているが、セキュリティ修正を含む更新は早期適用が原則だ。今回のケースは接続互換性への影響があるため、「まず検証環境に当てて確認する」というプロセスを踏む価値がある。 長期的には、RDPという30年選手のプロトコルに依存し続けるアーキテクチャ自体を見直すべきだろう。Azure Virtual DesktopやWindows 365への移行が進めば、こうした個別のKB変更に翻弄されるリスクも減る。この更新を「既存環境の棚卸し」のきっかけにしてほしい。 出典: この記事は Microsoft details Windows 11 KB5083769 Remote Desktop changes の内容をもとに、筆者の見解を加えて独自に執筆したものです。

April 15, 2026 · 1 min · 胡田昌彦

SQL Server Management Studio 22.5リリース——移行支援・プロジェクト機能が強化され現場の生産性が向上

SQL Serverを日常的に扱うデータベース管理者・開発者にとって、SQL Server Management Studio(SSMS)のアップデートは地味だが確実に業務効率に効いてくる出来事だ。Microsoftは今月、SSMS 22.5を公開した。移行作業の合理化、SQLプロジェクト機能の強化、全体的な生産性向上がこのリリースの柱となっている。 SSMS 22.5の主な改善点 マイグレーション支援の強化 オンプレミスのSQL ServerからAzure SQL Database、Azure SQL Managed Instance、またはより新しいSQL Serverバージョンへの移行を支援する機能が強化された。移行アセスメントの精度向上と、移行前の互換性チェックが改善されており、「移行してみたら動かなかった」という事態を未然に防ぎやすくなっている。 日本のエンタープライズ環境では、SQL Server 2012や2014といった長期サポート終了済みバージョンがいまだ現役稼働しているケースが珍しくない。こうした環境からのリフトアップを検討している担当者にとって、移行前の影響調査ツールが充実することは直接的なメリットになる。 SQLプロジェクト機能の改善 SQL Projectsは、データベーススキーマをソースコードとして管理する仕組みで、DevOpsパイプラインへのDB定義の組み込みを可能にする。SSMS 22.5ではこのプロジェクト機能のUI操作性が向上し、スキーマ変更の追跡・比較・展開がよりスムーズに行えるようになった。 インフラやアプリコードはGitで管理しているのに、DBスキーマだけは属人的な手順書で管理——という二重管理の非効率は多くの現場で生じている。SQLプロジェクト機能を活用すれば、この課題にアプローチできる。 全体的な安定性・UXの改善 クエリエディタのIntelliSense応答性の向上、オブジェクトエクスプローラーの読み込み速度改善、一部の接続エラー修正なども含まれる。地道な改善だが積み重ねで体験は変わる。 実務への影響 DB管理者・DBAへ 移行アセスメント機能を使って、現行環境の互換性リスクを棚卸ししておくタイミングとして最適だ。特にSQL Server 2016以前のバージョンを運用している組織は、延長サポート終了のカウントダウンが迫っており、早期調査に越したことはない。 開発者・DevOpsエンジニアへ SQL Projectsをまだ使っていないなら、このリリースを機に試してみる価値がある。スキーマのバージョン管理は「ベストプラクティス」の話ではなく、CI/CDパイプラインの完成度に直結する実務課題だ。Azure DevOpsやGitHub ActionsとSQL Projectsを組み合わせれば、スキーマ変更のレビュー→テスト→本番展開を自動化できる。 IT管理者へ SSMS 22.xは.NET 8ベースに刷新されており、SSMS 18.x以前とは構造が大きく異なる。まだ旧バージョンを使い続けている環境は、バージョン共存に注意しつつ計画的な移行を検討したい。 筆者の見解 SSMSは長い間「使えるが重い、UIも古い」というイメージを持たれてきたツールだ。22.x系への刷新でその印象はかなり改善されつつあり、22.5もその延長線上にある地道なアップデートだと評価している。 個人的に注目しているのは、マイグレーション支援の継続的な充実だ。日本のSQL Server運用現場では、クラウド移行の「必要性は分かっているが踏み出せない」という状況が長く続いている。アセスメントツールが使いやすくなることで、「まず現状を可視化する」という最初の一歩が踏み出しやすくなる。Microsoftにはこの方向の投資をぜひ続けてほしい。 一方、SQLプロジェクトとDevOpsの統合については、まだ「使いこなせている現場が少ない」印象がある。ツールが整備されても、組織の習慣が追いつかなければ意味がない。この領域でのドキュメント整備や日本語情報の充実に期待したい。 SSMSは地味なツールだが、SQL Serverが現役で動いている現場は日本にまだ無数にある。そのエコシステムを着実にメンテし続けているMicrosoftの姿勢は、素直に評価できる点だ。 出典: この記事は SQL Server Management Studio 22.5 now out, here is what’s new の内容をもとに、筆者の見解を加えて独自に執筆したものです。

April 15, 2026 · 1 min · 胡田昌彦

Anthropic、Google・Broadcomと複数GW規模のTPU契約を締結——年換算収益300億ドル超の急成長を支える計算資源戦略

Anthropicが2026年4月6日、GoogleおよびBroadcomとの間で複数ギガワット規模の次世代TPU(Tensor Processing Unit)調達契約を締結したと発表した。2027年以降に順次稼働予定のこのインフラ拡張は、同社史上最大規模のコンピュートコミットメントとなる。背景には、企業顧客からの需要が想定を超えて急拡大しているという事実がある。 収益の爆発的成長と1000社超の大口顧客 Anthropicの年換算収益(Run-rate Revenue)は、2025年末時点の約90億ドルから2026年4月時点で300億ドルを突破した。わずか数ヶ月で3倍以上に拡大した計算になる。 さらに注目すべきは、年間100万ドル以上を支出する企業顧客の数だ。2026年2月に行われたシリーズG資金調達の発表時点では500社超だったが、2ヶ月も経たないうちに1,000社超へと倍増している。単なるパイロット導入やPoC(概念検証)フェーズを終え、本番稼働・大規模展開に移行している企業が世界規模で急増していることを示す数字だ。 こうした需要の急増に対応するため、Anthropicは2025年11月に発表した「米国コンピュートインフラへの500億ドル投資」コミットメントの延長線上として、今回の大規模契約に踏み切った。新たに確保するコンピュートの大部分は米国内に設置される見込みだ。 マルチクラウド・マルチチップ戦略の深化 今回の発表で見落とせない点が、Anthropicのハードウェア・クラウド戦略の多様性だ。 AnthropicのClaudeは現在、以下の環境で訓練・推論を実行している: AWS Trainium(Amazonのカスタムチップ) Google TPU(Googleのカスタムアクセラレータ) NVIDIA GPU(汎用GPUの業界標準) そしてClaudeは現時点で、世界最大の3大クラウドすべてで提供されている唯一のフロンティアAIモデルだという。 Amazon Web Services(Bedrock経由) Google Cloud(Vertex AI経由) Microsoft Azure(Azure AI Foundry経由) このマルチクラウド展開は、エンタープライズ顧客にとって調達の選択肢が広がることを意味する。既存のクラウド契約や社内のセキュリティ・コンプライアンス要件に合わせて利用基盤を選べるのは、導入ハードルの低減につながる。 実務への影響——日本企業がいま考えるべきこと このニュースが日本のIT現場に示唆するポイントは、主に以下の3点だ。 ① AIインフラの「競争条件」が変わりつつある ギガワット単位の計算資源を確保できる企業と、できない企業の間に、フロンティアモデルの性能差として現れてくる。日本企業がAPIとして利用する場合、このインフラ差は直接パフォーマンスの差になる。SLAや可用性の観点から、サービス選定時にはインフラ投資の規模も判断材料に含めるべき時代に入った。 ② マルチクラウド対応は「乗り換えやすさ」ではなく「使い分け」の時代へ Azureをメインに使っている企業であれば、Azure AI Foundry経由でClaudeを利用できる。既存のAzureガバナンスポリシーやコスト管理の枠組みの中でフロンティアAIを導入できることは、IT管理者にとって朗報だ。今後はモデル選択とクラウド選択を切り離して考える設計が標準になっていくだろう。 ③ 「AIを試す段階」はとっくに終わった 1,000社超がそれぞれ年間1億円以上を投じているという事実は、グローバルではAIが既にコア業務インフラとして本格稼働していることを示す。「まだ検討中」「PoC中」という国内企業は、競合との差がリアルタイムで広がっていると認識すべきだ。 筆者の見解 ギガワット規模のコンピュートという数字は、一見すると遠い世界の話に聞こえるかもしれない。しかし実態はシンプルだ——このインフラ投資の差が、1〜2年後にエンドユーザーが日常的に触れるAIモデルの能力差として直接現れてくる。 個人的に興味深いのは、Anthropicがマルチチップ・マルチクラウド戦略を「パフォーマンスと耐障害性の向上」と位置づけている点だ。特定のハードウェアやクラウドへの依存を排し、ワークロードに最適なチップを選択できる設計思想は、AIインフラ設計の手本として参考になる。 AIエージェントが自律的にループで判断・実行・検証を繰り返す「ハーネスループ型」の活用が実務の現場で広がりつつある今、それを支える推論インフラの安定性と拡張性は以前より格段に重要になっている。今回の契約発表は、その需要が既に収益の数字として顕在化していることの証左でもある。 日本のIT現場においても、「AIを使うかどうか」の議論は終わっている。問われているのは「どのインフラで、どの設計で、どこまで自律化するか」だ。グローバルの大口顧客が既に答えを出しつつある今、日本企業にも同じ問いへの回答が迫られている。 出典: この記事は Anthropic expands partnership with Google and Broadcom for multiple gigawatts of next-generation compute の内容をもとに、筆者の見解を加えて独自に執筆したものです。

April 15, 2026 · 1 min · 胡田昌彦

WordPress人気プラグイン「Ninja Forms」に深刻な脆弱性——認証不要のファイルアップロードでサーバー乗っ取りが可能に

WordPressの人気フォームビルダープラグイン「Ninja Forms」のFile Upload拡張機能に、CVSS スコア 9.8 という最高クラスの深刻な脆弱性が発見された。認証なしにサーバー上へ任意のファイルをアップロードできるこの欠陥は、すでに実際の攻撃に悪用されており、日本を含む世界中のWordPressサイト管理者にとって緊急対応が求められる事態となっている。 脆弱性の詳細:何が問題だったのか 今回の脆弱性(CVE-2026-0740)は、Ninja Forms File Upload バージョン 3.3.26 以前に存在する。問題の核心は、ファイルアップロード処理におけるファイル種別・拡張子の検証が完全に欠如していたことだ。 Wordfenceの研究者の解析によると、ファイルを移動する処理において、移動先ファイル名に対するファイルタイプや拡張子のチェックが一切実装されていなかったという。これにより、攻撃者は .php 拡張子を持つファイル——つまりPHPスクリプト——をそのままサーバー上にアップロードできてしまう。 さらに問題を深刻にしているのがパストラバーサル(Path Traversal)の組み合わせだ。ファイル名のサニタイズ処理も行われていないため、アップロード先のパスを操作してWebルートディレクトリにファイルを配置することすら可能になる。攻撃のシナリオを整理すると: 認証なしに悪意あるPHPスクリプトをアップロード パストラバーサルでWebからアクセス可能なディレクトリに配置 そのURLにブラウザやcurlでアクセスするだけでリモートコード実行(RCE)が成立 この流れは教科書的なWebシェル設置攻撃そのものであり、成功した場合はサイトの完全乗っ取りにつながる。 発見から修正までのタイムライン セキュリティ研究者のSélim Lanouar氏(whattheslime)が2026年1月8日にWordfenceのバグバウンティプログラムへ報告。同日のうちにベンダーへ詳細が開示され、Wordfenceはファイアウォールルールによる暫定的な保護をユーザーへ展開した。 2月10日に部分的な修正が行われ、最終的な完全修正版(バージョン 3.3.27)が3月19日にリリースされた。発見から修正まで約70日。速いとは言えないが、バグバウンティ経由での調整プロセスとしては標準的な範囲だろう。 深刻なのはその後だ。修正版が公開されてから2週間以上が経過しているにもかかわらず、Wordfenceは直近24時間だけで3,600件以上の攻撃をブロックしていると報告している。File Upload拡張機能の利用者は約9万件。更新が完了していないサイトが相当数残っていることが、これだけの攻撃頻度から見てとれる。 実務への影響:WordPress運用者が今すぐやるべきこと 即時対応(今日中に) Ninja Forms File Upload を使用している場合、バージョンを 3.3.27以上 に更新する 更新前後でファイルアップロード機能の動作確認を実施する サーバーのアクセスログを遡り、不審なPHPファイルへのPOSTリクエストがないか確認する アップロードディレクトリに .php 拡張子のファイルが存在しないか確認する 中期的な対策 WordPressのアップロードディレクトリには、PHPの実行を禁止する .htaccess を設置しておくことを強く推奨する。これは今回のような脆弱性が将来再発した際の多層防御(Defense in Depth)として機能する。 出典: この記事は Hackers exploit critical flaw in Ninja Forms WordPress plugin の内容をもとに、筆者の見解を加えて独自に執筆したものです。

April 15, 2026 · 1 min · 胡田昌彦

Azure Functions MCP拡張に「Fluent API」登場——MCPアプリ開発が3ステップで完結する時代へ

AIエージェントとツールの連携標準として急速に普及しつつあるModel Context Protocol(MCP)。そのMCPツールに本格的なUI体験を持たせる「MCP Apps」が、Azure Functionsのエコシステムでさらに開発しやすくなった。Microsoftは.NET isolated worker向けのFluent APIを新たにプレビュー提供し、設定コードをわずか数行に圧縮することに成功している。 MCP Appsとは何か 通常のMCPツールはAIエージェントからテキストベースで呼び出される関数にすぎない。MCP Appsはそこから一歩踏み込み、ツールに以下の機能を持たせることができる。 HTMLビューのアタッチ: MCP クライアントがレンダリングするインタラクティブなUI 静的アセットの配信: HTML・CSS・JavaScript・画像をツールと一緒に提供 権限制御: クリップボードアクセスなど、ユーザー環境との安全なやり取り Content Security Policy(CSP)の定義: ロードや通信先を厳格に制限 要は「AIエージェントから呼び出せる、かつ人間向けのUIも持つWebアプリ」を1つのAzure Functionsで完結させる仕組みだ。 Fluent APIが解決する問題 MCPプロトコルの仕様上、ツールをUIビューに接続するには細かな調整が必要だった。ui:// URIのリソースエンドポイント、text/html;profile=mcp-app という特殊なMIMEタイプ、ツールとリソース双方への _meta.ui メタデータ注入——これらを手動で揃えるのは煩雑で、仕様の理解コストも高かった。 Fluent APIはこの複雑さを完全に隠蔽する。 AsMcpApp を呼び出すだけで、拡張機能が合成リソース関数の生成・MIMEタイプ設定・メタデータの自動注入をすべて肩代わりしてくれる。開発者はHTMLファイルのパスとセキュリティポリシーを宣言するだけでいい。 3ステップで動くサンプル 実際のコードは驚くほどシンプルだ。 Step 1: MCPツール関数を定義する 出典: この記事は MCP as Easy as 1-2-3: Introducing the Fluent API for MCP Apps の内容をもとに、筆者の見解を加えて独自に執筆したものです。

April 15, 2026 · 1 min · 胡田昌彦

元Neuralink共同創業者が挑む「バイオハイブリッドBCI」——Science Corpが人体初センサー試験へ

元Neuralink共同創業者・Max HodakのScience Corporationが、バイオハイブリッド型ブレイン・コンピューター・インターフェース(BCI)の人体初試験に向けて本格的に動き出した。Yale大学医学部神経外科学科長のMurat Günel博士を科学顧問として迎え入れ、最初のセンサーを患者の脳へ外科的に埋め込む計画を進めている。 金属プローブの「限界」からバイオハイブリッドへ 従来のBCIは、金属プローブや電極を脳に刺して電気信号を読み取る方式が主流だった。Neuralink含む多くの企業がこのアプローチを採り、ALSや脊髄損傷の患者がコンピューターを思考で操作できるレベルの成果を上げてきた。 しかしGünel博士が指摘するように、金属プローブは時間とともに脳組織を損傷し、長期的なデバイス性能の低下を招くという根本的な問題がある。Hodakはこの「金属 vs 神経」のミスマッチを解消するため、まったく異なるアプローチを選んだ。 Science Corpの目指すバイオハイブリッドセンサーは、人工的に培養したニューロン(神経細胞)を電子機器に組み込むという手法だ。培養ニューロンは光パルスで刺激でき、患者脳内の既存ニューロンと自然に結合して「生物と電子の橋」を形成する。2024年にはマウスでの安全な埋め込みと脳活動刺激を実証する論文を発表し、ヒト試験への道を切り拓いてきた。 会社の現在地と資金力 2021年設立のScience Corpは、先月完了した2億3000万ドルのシリーズCラウンドで企業価値15億ドルに到達した。最も実用化が近い製品はPRIMA——加齢黄斑変性などによる視覚障害の回復を目指すデバイスで、欧州での規制承認・販売を今年中にも見据えた臨床試験を進めている。視覚回復という具体的なユースケースで実績を積みつつ、より広範な脳インターフェース技術へと布石を打つ戦略だ。 実務への影響——日本の医療・エンジニア界が注目すべき理由 BCIは一見すると遠い未来の話に見えるが、日本のIT・医療業界にとって無視できない潮流がいくつかある。 医療機器・規制動向: 日本でも厚生労働省が神経刺激デバイスの承認プロセスを整備してきた。欧州でPRIMAが承認されれば、日本市場への参入時期も注目される。医療機器メーカーや商社は今から動向を追うべきだろう。 ヒューマン・コンピューター・インタラクション(HCI)の変容: キーボード → タッチ → 音声 → そしてBCIという進化の文脈で考えると、エンジニアが設計するUIの前提が根本から変わりうる。アクセシビリティ分野は特に早期に影響を受ける可能性が高い。 倫理・プライバシーの設計: 脳のデータが企業のサーバーと繋がる世界では、「最も深いプライベートデータ」の扱いに関する設計思想が問われる。セキュリティエンジニアにとってはまったく新しい脅威モデルの検討が必要になる領域だ。 筆者の見解 Hodakが「金属プローブは間違っている」と結論づけた点に、私は技術的な誠実さを感じる。NeuraLinkで得た知見を踏まえて根本から設計をやり直す判断は、「道のド真ん中」を選ぶ勇気でもある。流行りの技術に乗っかるのではなく、生物学的な現実と向き合った末の答えだ。 BCIが目指すものの本質は、人間の認知負荷を削減し、意図をより直接的に外の世界へ伝えることだと私は理解している。AIエージェントが「考える」ことを代替しつつある一方で、BCIは「伝える」インターフェースを根本から書き換えようとしている。両者が交差する地点に、次の10年の主戦場がある。 もちろん、規制の壁・長期的な安全性・埋め込みコストといった現実的な課題は山積している。Neuralink含む先行者が示してきた「技術的成功」と「市場へのパス」の乖離は、Science Corpも直視しなければならない問題だ。だからこそ、PRIMAという視覚回復という具体的なユースケースで足場を固めながら進む戦略は筋が良い。地に足のついたステップと、大きなビジョンの両立——この組み合わせをScience Corpが実現できるか、長期目線で注目していきたい。 出典: この記事は Max Hodak’s Science Corp. is preparing to place its first sensor in a human brain の内容をもとに、筆者の見解を加えて独自に執筆したものです。

April 15, 2026 · 1 min · 胡田昌彦

ソフトウェア開発の第3の革命——エージェントAIが変えるSDLCの全貌

オープンソース、DevOps、そして「第3の波」へ 今世紀のソフトウェアエンジニアリングには、すでに2度の大転換があった。ひとつめはオープンソース運動の台頭。コードが広く開発者へ解放され、「作る文化」が民主化された。ふたつめはDevOpsとアジャイルの普及で、開発はサイロ型からコラボレーション型へ、バッチ型からContinuous Deliveryへと進化した。 そして今、第3の波が来ている——エージェントAIの本格採用だ。 MIT Technology Reviewが300人の技術・エンジニアリング幹部を対象に実施した調査レポート「Redefining the future of software engineering」は、その実態と展望を克明に示している。 エージェントAIとは何が違うのか これまで多くの開発チームがAIを活用してきたのは、コーディング補助やテスト自動化といった「個別タスク支援」の文脈だった。使い方としては、エンジニアが指示を出し、AIが提案を返し、人間が判断する——いわゆる「副操縦士モデル」だ。 エージェントAIはそこから一線を画す。自ら状況を推論し、次のアクションを判断し、タスクを自律的に遂行し続ける。単なるアシスタントではなく、プロジェクト全体を主体的にドライブできる存在に近づいている。これは「副操縦士」から「自律エージェント」へのパラダイムシフトであり、単なる機能追加ではなくソフトウェア開発の在り方そのものが変わる話だ。 調査が示す実態と展望 採用は加速中、ただし今は「入口段階」 現時点で51%のソフトウェアチームがエージェントAIを何らかの形で活用中、45%が今後12ヶ月以内の採用を計画している。一方でその大半は「限定的な用途」に留まっており、全面展開にはまだ至っていない。 2年以内に37%の速度向上を期待 调查对象の98%が「パイロットから本番までの開発スピードが上がる」と回答しており、その平均期待値は37%の速度向上だ。ただし多くは「ある程度の改善」(52%)にとどまると見ており、ゲームチェンジャー級の変化を期待するのは9%のみ。着実な進化を多くの組織が想定している。 目標はSDLC全プロセスのエージェント管理 最も注目すべきデータはここだ。72%の組織が2年後にはAIエージェントがSDLC(ソフトウェア開発ライフサイクル)・PDLC(プロダクト開発ライフサイクル)の大半または全部を管理するようになると見込んでいる。18ヶ月以内にこの目標を持つ組織はすでに41%存在する。 現場の体感とは乖離があるかもしれないが、経営・技術幹部レベルでは「エージェントが開発を管理する世界」を真剣にロードマップに組み込んでいることがわかる。 壁はコストと統合 主な課題として挙がるのは、①コンピューティングコスト、②既存システムとの統合の難しさ、そして現場専門家が口を揃えて指摘するのが③ワークフロー変革を伴う変更管理の困難さだ。技術の話である前に、組織と人の話なのだ。 実務への影響——日本のエンジニアが今できること このレポートが描く未来は遠い話ではない。日本のIT現場でも今すぐ着手できることがある。 1. 「タスク支援」から「ループ設計」へ思考を切り替える AIに1回指示して結果を得るのではなく、エージェントが判断・実行・検証を繰り返すループそのものを設計することが、これからのエンジニアに求められる本質的なスキルだ。ツールを使いこなすより、仕組みを作れる人間であることが差別化になる。 2. 小さく始めて組織の「免疫」を育てる 調査が示す通り、最大の壁は技術ではなく変更管理だ。一気にSDLC全体をエージェント化しようとせず、CI/CDの特定ステージやテスト自動化の一部から始め、チームの習熟度と信頼を段階的に積み上げる方が現実的だ。 3. コスト試算をITコスト全体で見る コンピューティングコストの増加は事実だが、それと引き換えに削減される人的コスト・リードタイム・品質コストを合計で比較する視点が必要だ。個別コスト増を見て「高い」と判断するのは部分最適の罠だ。 4. DevOps普及期の教訓を活かす DevOpsが定着するまでに多くの組織が「文化的摩擦」に苦しんだ歴史がある。エージェントAIも同じ道を歩む可能性が高い。技術の早期採用よりも、チームが変化に適応できる組織設計を優先すべきタイミングかもしれない。 筆者の見解 このレポートを読んで真っ先に感じるのは、「われわれが今話しているのは未来の話ではない」ということだ。エージェントAIによるSDLC管理は、一部の組織ではすでに「今年の目標」になっている。 重要なのは、このシフトがDevOpsの時と同様に「技術の問題」ではなく「仕組みと文化の問題」である点だ。ツールを導入しただけでは何も変わらない。エージェントが動き続けられるループを設計し、そのループを信頼して人間が手放せる文化を作ること——それこそが真の価値を生む。 日本のIT業界が今抱えている課題——人手不足、スキル不足、レガシーシステム依存——は、エージェントAIにとって逆に絶好の「活躍の場」でもある。変革に乗り遅れている企業が多い分、早く動いた組織は圧倒的な優位を取れる。 この第3の波は、「うまく乗れた組織」と「乗れなかった組織」の間に、かつてないほど大きな差を生むだろう。今が仕組みを作るタイミングだ。 出典: この記事は Redefining the future of software engineering の内容をもとに、筆者の見解を加えて独自に執筆したものです。

April 15, 2026 · 1 min · 胡田昌彦

GoogleのAI透かし技術SynthIDはリバースエンジニアリングされたのか?──騒動の全容と透かし技術の現実

Google DeepMindが開発したAI生成コンテンツ向け透かし技術「SynthID」が、一人の開発者によってリバースエンジニアリングされたと主張される騒動が起きた。主張の真偽はグレーゾーンだが、この出来事はAI透かし技術の限界と設計思想について、改めて考えさせる機会を与えてくれる。 SynthIDとは何か SynthIDは、Google AIが生成した画像・テキスト・音声などのコンテンツに、肉眼ではほぼ見えない形で透かし(ウォーターマーク)を埋め込む技術だ。Geminiや動画生成モデルVeo 3など、Google AIが出力するほぼすべてのコンテンツにSynthIDが付与されており、YouTubeのAI生成クリエイタークローン機能にも適用されている。 AI生成コンテンツの氾濫が問題視される現代において、「これはAIが作ったものか」を判別できる仕組みは非常に重要だ。SynthIDはその答えの一つとして、業界から注目を集めてきた。 「リバースエンジニアリング」の実態 開発者のAloshdenny氏は、GitHubにコードを公開し、Mediumで手法を詳しく解説した。手順は意外にシンプルだ。 Geminiで200枚の純黒・純白画像を生成する コントラスト・彩度を強調し、ノイズ除去することで透かしパターンを可視化する 各周波数ビン・チャンネルごとに透かし信号の強度と位相を平均化する 対象画像から同じ周波数成分を同じ角度で部分的に除去する 使ったのはニューラルネットワークではなく、古典的な信号処理技術のみ。「失業中に、ウィードをやりながら開発した」という本人のコメントが話題を呼んだが、技術的な内容は十分に精緻だ。 ただし、Aloshdenny氏自身が「完全には除去できなかった」と認めている。達成できたのは「デコーダーを混乱させて判定を諦めさせること」であり、透かし信号そのものを完全に消すには至っていない。 Googleの見解 Googleのスポークスパーソンは「このツールがSynthIDの透かしを体系的に除去できるという主張は正しくない」と明確に否定した。SynthIDは依然として堅牢な技術であるとの立場だ。 Aloshdenny氏自身も「SynthIDは本当によく設計されている」と評価しており、今回の騒動は「完全に破られた」ではなく「限界まで追い詰めたが突破できなかった」というのが正確な見方だ。 実務への影響 この騒動が示すのは、透かし技術の「完全性」への過信は禁物だということだ。日本のIT現場で考えるべきポイントは以下の通りだ。 AI生成コンテンツの管理担当者へ SynthIDのような透かし技術は「悪意あるユーザーが簡単には除去できないコスト」を提供するものであり、「絶対に除去不可能な証拠」ではない。ガバナンスの観点では、透かしの有無だけに依存せず、生成ログや管理台帳など複数の証跡を組み合わせることが現実的だ。 セキュリティ・コンプライアンス担当者へ 今回の手法は公開されており、将来的に自動化ツールとして広まる可能性は否定できない。AI生成コンテンツの真正性担保を法的・業務的要件として課している場合は、SynthIDの進化を注視する必要がある。 開発者・研究者へ 「200枚の黒画像と信号処理で透かしの構造が見えた」という事実は、AI透かし技術の設計において、単一の埋め込みアルゴリズムへの依存がリスクになりうることを示している。動的な鍵や多層的な埋め込みなど、より堅牢な設計へのヒントにもなるだろう。 筆者の見解 Aloshdenny氏の一番正直なコメントに、この話の本質がある。「完全には消せなかった。でも消えなかったということが、どれだけよく設計されているかを物語っている」——これは皮肉でなく、率直な技術評価だ。 AI透かし技術の目標は「解読不可能な暗号」ではなく、「不正利用のコストを十分に引き上げること」にある。この設計思想は正しいと思う。完璧なセキュリティなど存在しない。重要なのは「突破するために必要な労力が、得られる利益を上回るか」だ。 一方で、今回の手法がさらに洗練され、ツール化・自動化されたとき、現在の均衡が崩れる可能性はある。AI生成コンテンツが当たり前になった世界で、その真正性を保証する技術は社会インフラの一部になりつつある。SynthIDはその最前線にいる技術だ。今後の改良に期待しつつ、業界全体でより堅牢な標準策定が進むことを願う。 AI透かし技術は「AIが書いた、作った」を証明するための技術だが、逆に言えば「AIでないと主張する」ことへの悪用も考えられる。今回の騒動は完全破綻ではなかったが、透かし技術だけに頼るガバナンスの危うさを再認識させてくれた点で、価値ある事例だ。 出典: この記事は Has Google’s AI watermarking system been reverse-engineered? の内容をもとに、筆者の見解を加えて独自に執筆したものです。

April 15, 2026 · 1 min · 胡田昌彦

OpenAI投資家に迷いが生じる——Anthropicの急成長が揺さぶる生成AI勢力図

OpenAI投資家が自社バリュエーションに疑問を抱き始めた Financial Timesの報道をきっかけに、生成AI業界の資金動向に大きな地殻変動の兆しが見えてきた。OpenAIは現在8520億ドルという天文学的な評価額を掲げているが、その評価額を正当化しようとすると「IPO時点での企業価値が最低でも1.2兆ドル以上」という前提が必要になる——そう語るのは、両社に出資した経験を持つ投資家だ。一方でAnthropicの現在の評価額3800億ドルは「相対的な割安感がある」とも言われており、市場のセンチメントは明らかに変化しつつある。 わずか3ヶ月で売上3倍超:コーディングツール需要が牽引 Anthropicの年間換算売上は2025年末の9億ドルから、2026年3月末には30億ドルへと急拡大した。この成長の原動力として明確に名指しされているのがコーディングツールへの需要だ。 開発者向けの生成AIツール市場では、単なるチャット補助から「エージェントとして自律的にコードを書き・テストし・デプロイする」フェーズへの移行が急速に進んでいる。企業がこの領域に投資を集中させていることが、Anthropicの売上急増に直結している。 二次市場(セカンダリーマーケット)でもその動きは顕著で、Anthropic株への需要が「ほぼ飽和しない」レベルで高まる一方、OpenAI株はディスカウントで取引されているという。 OpenAI側の反論と「ネットスケープ」比較の衝撃 OpenAIのCFOであるSarah Friar氏は「過去最大の民間資金調達規模(1220億ドル)がそのまま投資家からの信頼の証だ」と反論している。確かに調達規模という観点では圧倒的だ。 しかし注目すべきは、投資会社Sapphire Venturesの代表Jai Das氏(両社への出資なし)が投げかけた言葉だ。彼はOpenAIを「AIにおけるネットスケープ」と表現した。かつてブラウザ戦争を制したネットスケープが、その後Microsoftに押されAOLに吸収されていった歴史を重ねた発言であり、業界関係者に強い印象を残している。 日本のIT現場への示唆 この動向が日本のエンジニアやIT管理者にとって意味するところは大きい。 調達・ベンダー選定の視点から: 生成AI基盤の選定はもはや「ChatGPTかClaude(Anthropic)か」という単純な比較ではなく、どのプロバイダーが3〜5年後も安定してAPIを提供し続けられるかという中長期的な視点が必要になる。売上成長率と投資家信頼度は、そのベンダーのサービス継続性を読む重要な指標だ。 コーディングツール選定の視点から: Anthropicの成長がコーディング需要に依存しているということは、エンジニアの実際の業務価値を生むツールへの評価が市場でも正しく反映されていることを示している。「使ってみたら実際に仕事が速くなった」という体験が積み重なり、企業の本格投資につながっているのだ。日本企業もPoC段階から脱して、生産環境での活用実績を積む段階に来ている。 AIエージェント投資の優先度: 単発の質問応答ではなく、自律的なタスク遂行(コード生成〜テスト〜修正のループ)を実現するエージェント型ツールへの需要が、今回の市場動向の背後にある。この流れはエンタープライズのAI投資戦略にも波及していくだろう。 筆者の見解 OpenAIの評価額問題をめぐるこの論争は、AI業界全体の「現実との向き合い」フェーズが始まったことを象徴していると感じる。 ここ数年、「最初に規模を取ったプレイヤーが勝つ」というゲームが続いてきた。しかし市場は今、「規模」よりも「使われた結果として売上が伴っているか」を問い始めている。Anthropicの売上がコーディングツール需要で急拡大しているという事実は、エンジニアが「実際に使ってみて役に立つ」と判断したツールが市場でも正当に評価される時代への転換を示している。 AIエージェントの本質は、人間が確認・承認を繰り返さなくても自律的にタスクを遂行できること——その体験の質が問われている。単に「AIを使っている」ではなく「AIが自分の代わりに考え・動いてくれる」体験を積み上げたプレイヤーが、企業でも個人でも次のフェーズを生き残る。 日本のIT現場でも、「話題だから試した」段階を超えて、実際に業務効率に差が出ているかを検証する段階に入るべきだ。ツールの選択は情報収集より実践に投資する。今この瞬間に、その判断を迫られている。 出典: この記事は Anthropic’s rise is giving some OpenAI investors second thoughts の内容をもとに、筆者の見解を加えて独自に執筆したものです。

April 15, 2026 · 1 min · 胡田昌彦

AIエージェントが「24時間働く同僚」になる日――Claude Code Routinesが示す自律型CI/CDの未来

AIが「指示待ち」から「自律稼働」へ転換するターニングポイント Anthropicが研究プレビューとして公開した Claude Code Routines は、単なる新機能の追加ではない。AIエージェントの使われ方が「人間が指示→AIが応答」という一問一答モデルから、「目的を設定→AIが自律的にループで働き続ける」 モデルへと本格移行する兆候として注目に値する。 日本のIT現場では、コードレビューの属人化・バックログの積み残し・深夜デプロイ後の確認漏れといった課題が日常的に存在する。Routinesが目指す世界は、そうした「誰かがやらなければならないが後回しにされがちな作業」を、クラウド上のAIインフラが無人で継続的に担うというものだ。 Routinesの仕組み:3種類のトリガーで「いつでも動く」 Routinesの本質は、プロンプト・リポジトリ・コネクター(外部ツール連携)をひとまとめにした「設定パッケージ」 を保存し、任意のタイミングで自動実行できる点にある。トリガーは3種類用意されている。 スケジュールトリガー 毎時・毎晩・毎週といったサイクルで定期実行する。バックログ整理、ドキュメントのドリフト(コードと乖離した古いドキュメントの検出)、週次のサマリー生成などに適している。 APIトリガー HTTP POSTでルーティンを呼び出せるエンドポイントが各ルーティンに付与される。監視ツールがアラートを検知した瞬間にAIを起動し、スタックトレースとコミット履歴を突き合わせてドラフトPRを自動作成する、といったユースケースが実現する。 GitHubトリガー PRのオープン・プッシュ・Issueの作成・ワークフロー完了など、リポジトリイベントをトリガーにできる。独自のレビューチェックリストをRoutineに持たせておけば、PRが作られるたびにセキュリティ・パフォーマンス・スタイルの観点からインラインコメントが自動付与される。 複数のトリガーを1つのRoutineに組み合わせることも可能で、「夜間のスケジュール実行+デプロイスクリプトからのAPI呼び出し+PRオープンイベント」を1つのルーティンが担う構成も許容される。 実行はAnthropicが管理するクラウドインフラ上で行われるため、ローカルマシンの電源がオフでも継続動作する。これはCIランナーの常時稼働コストを気にする中小チームにとっても見逃せない特性だ。 実務への影響:日本のエンジニア・IT管理者にとっての意味 コードレビューの脱属人化 Routinesによる自動レビューは、人間レビュアーを「機械的なチェック」から解放し、アーキテクチャや設計品質の判断に集中させる。チームにシニアエンジニアが1人しかいない状況でも、一定水準のレビューカバレッジを維持できる可能性がある。 アラート対応の初動自動化 深夜の本番アラートに対し、AIがスタックトレースの解析・原因候補の特定・修正候補のドラフトPR作成までを自動化すれば、オンコールエンジニアが「白紙のターミナル」から始める必要がなくなる。初動の認知負荷が大幅に下がる。 ドキュメントの鮮度管理 APIの仕様変更に追いついていないドキュメントは技術的負債の温床だ。週次のスケジュールで変更差分を監視し、更新PRを自動作成するRoutineを仕込めば、ドキュメントの陳腐化を防ぐ継続的なサイクルが生まれる。 導入時の注意点 現時点では「Research Preview」ステータスであり、APIやトリガーの仕様は変更される可能性がある。本番ワークフローへの組み込みは、仕様が安定してからというのが現実的な判断だろう。Pro・Max・Team・Enterpriseプランが対象で、claude.ai/code/routines またはCLIの /schedule コマンドから管理できる。 筆者の見解 Routinesが興味深いのは、それが 「ハーネスループ」の実用化 に踏み込んでいるからだ。AIエージェントがトリガーを受けて起動し、リポジトリを読み、コードを書き、PRを作り、結果をSlackへ通知する——この一連の流れがクラウドで自律的に完結する。人間が毎回起動ボタンを押す必要がない。 日本のITエンジニアの多くは今まさに、AIを「賢い補完ツール」として使いこなそうとしている段階だと思う。それ自体は悪くない入り口だ。ただ、その次の段階——AIが目的を与えられると自律的にタスクを遂行し続けるパートナーとして機能する世界——はもうすぐそこまで来ている。Routinesはその具体的な形のひとつを示している。 「バックログの整理は来週やろう」「ドキュメントの更新は誰かがやってくれるはず」——そういった先延ばしの多くは、AIルーティンが淡々と処理してくれる未来が現実になりつつある。重要なのは、こうした仕組みを自分たちのワークフローに合わせて設計・運用できる人材を今から育てることだ。ツールを使いこなすだけでなく、ループを設計できること。それがこれからのエンジニアに問われる核心だと思う。 Research Preview段階なので現時点での本番投入には慎重な判断が必要だが、試す価値のある方向性であることは間違いない。 出典: この記事は Claude Code Routines の内容をもとに、筆者の見解を加えて独自に執筆したものです。

April 15, 2026 · 1 min · 胡田昌彦

暗号資産取引所Krakenがインサイダー恐喝被害——「人を経由した攻撃」が突きつけるゼロトラスト実装の急務

米国の暗号資産取引所Krakenが、インサイダー脅威を起点とした恐喝被害を公表した。CSO(最高セキュリティ責任者)のNick Percoco氏が声明を発表し、内部システムへのアクセス映像を公開すると脅す犯罪グループの存在を明かした。「システムそのものは侵害されていない」「資金は安全だ」とする一方で、「支払わない・交渉しない」という明確な姿勢を打ち出している。 暗号資産業界特有の話に見えるかもしれないが、この事件の構造はあらゆる業界のIT担当者にとって他人事ではない。 何が起きたのか 2025年2月、信頼できる情報筋から「クライアントサポートシステムへのアクセスを示す映像が犯罪グループ間で出回っている」という提供を受けたKrakenは調査を開始。その結果、脅威アクターに採用・買収されたサポート従業員1名が特定された。 その後、さらに別の映像が出回っていることが判明し、2件目の不正アクセスも確認。いずれも迅速に当該従業員のアクセスを剥奪し、影響を受けたユーザーへの個別通知を行った。 影響を受けたアカウントは約2,000件(全ユーザーベースの0.02%)で、露出した情報はクライアントサポートデータに限定。顧客資金へのリスクはなかったとしている。Krakenは現在、複数の司法管轄にまたがる連邦法執行機関と連携して法的措置を進めているという。 インサイダー脅威という構造的問題 今回の手口は「従業員をスカウト・買収して内部アクセスを得る」という古典的かつ非常に有効なアプローチだ。技術的な防御が強固になればなるほど、攻撃者は人間という最も管理しにくいポイントを狙う傾向が強まる。 同じく暗号資産交換所のCoinbaseでも2025年中旬に類似の事件が発生している。インド拠点のカスタマーサポート代理店の従業員が買収され、約7万人の顧客情報が流出。Coinbaseは損害総額を約4億ドルと試算した。 業界や規模は異なっても、この構造は共通している。外部の技術的境界線を突破できなければ、人を使って内側から扉を開けようとする——これが現代の攻撃シナリオの現実だ。 最小権限とJust-In-Timeアクセスが鍵 サポート従業員が「アクセスすべきでないデータにアクセスできた」という事実こそが問題の核心だ。技術的な制御がどこかで機能していれば、内部不正はここまでスムーズには進まなかったはずだ。 ここで重要になるのが最小権限の原則(Principle of Least Privilege)とJust-In-Time(JIT)アクセスだ。常時アクセス権を付与しておくことは、インサイダー脅威に対してほぼ無防備に等しい。「必要な時に、必要なスコープだけ、期限付きで付与する」設計が、ダメージの最小化に直結する。 あわせて、UEBA(User and Entity Behavior Analytics)によるアクセスログの常時監視と異常パターン検知も有効だ。不正が行われたとしても早期検知できれば、被害拡大を防げる可能性が大きく高まる。 日本のIT現場への影響 日本の大企業では、従来のネットワーク境界型セキュリティとゼロトラストの考え方が中途半端に混在しているケースが多い。「社内ネットワーク内なら信頼できる」という思想が残っていると、インサイダーによる不正アクセスを技術的に防ぐ仕組みが機能しない。 クラウドサービスや外部委託パートナーが当たり前になった今、「誰がどのデータに触れられるか」を厳密に管理するIAM(Identity and Access Management)の整備は待ったなしだ。SaaSのカスタマーサポートやヘルプデスク業務を外部委託している組織は特に、データスコープの設計とアクセス制御の粒度を今すぐ見直してほしい。 Krakenの対応自体は迅速だった。アクセス剥奪・調査・ユーザー通知・法執行機関との連携——いずれも教科書通りのインシデントレスポンスだ。「払わない・交渉しない」という姿勢も正しい。恐喝に応じることは次の攻撃を招くだけだ。 筆者の見解 今回の事件が示す最も重要な教訓は、「技術的に堅牢なシステムでも、アクセス権を持つ人間が弱点になりうる」という当たり前の事実だ。そして、この問題に対する答えは「人を信頼しない設計」にある。これは人間不信ではなく、構造として不正を難しくするということだ。 少し気になる点がある。1件目の対応後、なぜ同じ経路での再発を防ぐ仕組みが機能しなかったのか——外部からは見えない部分だが、2件目が発覚してからの公表という経緯には再発防止策の実効性という観点で問うべき点が残る。 インサイダー脅威への対策として明日から取り組めることを整理する: 常時アクセス権の棚卸し: サポート担当者が「見える必要のないデータ」にアクセスできていないか確認する JITアクセスの導入検討: Azure AD(Entra ID)のPIM(Privileged Identity Management)などを活用し、昇格アクセスに承認フローと有効期限を設ける 操作ログの可視化と自動アラート: 通常業務では発生しないアクセスパターンを検知する仕組みを整備する 外部委託先のアクセス範囲の見直し: 委託先従業員のアクセス制御は自社従業員と同等以上に厳格に 技術的な境界線を固めた次のフロンティアは、確実に「人」だ。セキュリティ投資を考える際、このインサイダー脅威という視点を必ず組み込んでほしい。 出典: この記事は Crypto-exchange Kraken extorted by hackers after insider breach の内容をもとに、筆者の見解を加えて独自に執筆したものです。

April 15, 2026 · 1 min · 胡田昌彦

Disneyが15本のクラシックゲームをSteamから無断削除——デジタル所有権の脆さを改めて露呈

Disneyがまた静かにSteamのライブラリを縮小させた。今回の削除対象は15本に上り、Star Warsシリーズをはじめとした映画タイアップ作品やクラシックタイトルが含まれる。公式なアナウンスも、理由の説明も一切ない。ユーザーが気づいたのは、ストアページが消えていたからだ。 何が消えたのか 今回の一斉削除は「最初の波」ではない。Disneyはここ数ヶ月で段階的にSteamからタイトルを取り下げており、今回はその延長線上にある。対象作品には長年ファンに親しまれてきたゲームが多く含まれ、すでに購入済みのユーザーについても今後のサポートや動作保証が不透明な状況だ。 削除の背景として考えられる要因はいくつかある。 ライセンス期限切れ: 映画タイアップ作品は音楽・映像素材のライセンスが複雑で、更新コストが見合わないと判断されることがある Disney+への統合戦略: コンテンツをストリーミングプラットフォームに集約し、ゲームも独自チャンネルに誘導する意図がある可能性 保守コストの問題: 旧来のゲームエンジンや32ビット対応など、維持に工数がかかるタイトルを整理している いずれも推測の域を出ないのは、Disneyが何も語っていないからだ。 デジタル所有権という幻想 この件で改めて浮き彫りになるのは、デジタルコンテンツの「購入」は実質的にライセンスの取得に過ぎないという現実だ。 Steamで5,000円払ってゲームを「買った」としても、パブリッシャーがストアから引き上げれば新規購入はできなくなる。すでにライブラリに入っているタイトルは引き続き遊べる場合が多いが、OSのバージョンアップや端末の変更によって動作しなくなるリスクは常にある。 物理メディアと異なり、デジタル購入には「手元に残る」という確実性がない。これはゲームに限らず、電子書籍・動画・音楽にも共通する構造的な問題だ。 実務への影響——IT担当者・開発者の視点 一見「ゲームの話」に見えるが、この問題はエンタープライズのIT運用とも地続きだ。 クラウドサービス依存のリスク管理 SaaSやクラウドサービスも、ベンダーの事業判断次第でいつでも仕様変更・廃止になりうる。「今動いているから大丈夫」という感覚は危険で、代替手段の確保と依存度の可視化が常に必要だ。 契約・ライセンス条件の精査 「購入」と「ライセンス取得」の違いを契約書レベルで理解しておくことは、個人だけでなく法人調達でも重要な視点になっている。 データポータビリティの確保 ゲームセーブデータのみならず、業務データについても「サービスが消えたときに自分のデータを取り出せるか」を事前に確認しておくべきだ。 筆者の見解 ゲーム産業におけるデジタル移行は、便利さと引き換えに「永続性の保証」を手放させた。ディスクがあれば20年後でも遊べる。しかしデジタル購入は、パブリッシャーのビジネス判断に全面依存している。 Disneyの今回の対応で残念なのは、説明がないことだ。理由がライセンス問題であれコスト問題であれ、誠実に伝えることはできたはずで、そこを省いたのはユーザーへの敬意という点でもったいない判断だと思う。 より広い文脈で言えば、このような事例が積み重なるたびに「デジタルコンテンツを信頼してよいのか」という問いが強くなる。プラットフォームと権利者が協力してユーザーの「買ったものは残る」という合理的な期待に応えていく仕組みを業界全体で整えていくことが、長期的な信頼構築につながるはずだ。 ゲームの保存・アーカイブに取り組むコミュニティの存在は、こうした問題への一つの答えでもある。技術的な記録を後世に残すという意味でも、デジタル保存の議論はこれからも重要であり続けるだろう。 出典: この記事は Disney delists 15 more classic games from Steam without an explanation の内容をもとに、筆者の見解を加えて独自に執筆したものです。

April 15, 2026 · 1 min · 胡田昌彦

Raspberry Pi OS 6.2がsudoを刷新——「パスワードなしsudo」という長年のセキュリティホールに終止符

何が変わったのか Raspberry Pi OSの最新版となるバージョン6.2が、セキュリティ面で大きな方針転換を打ち出した。これまでデフォルトユーザー(piユーザーまたはセットアップ時に作成するユーザー)には、sudo コマンドをパスワードなしで実行できる設定が与えられていた。利便性優先の設計判断だったが、それが長年「セキュリティホール」として指摘され続けてきた。 バージョン6.2では、この設定が変更され、sudo を使う際にはパスワード入力が必要になった。たった一行の /etc/sudoers 設定の変更に見えるが、Raspberry Piを使う現場にとってはインパクトの大きな転換点だ。 なぜこれが重要か 「デフォルトで安全」の原則 Raspberry Piは教育・ホビー用途だけでなく、産業用IoTデバイス、ネットワーク機器の代替、ホームサーバーとして本番環境に使われているケースが増えている。にもかかわらず、デフォルト設定が「パスワードなしで何でもrootできる」というのは、ゼロトラストの観点から見れば大問題だった。 攻撃シナリオは単純だ。不正なスクリプトが実行された場合、あるいはSSHへの不正アクセスが成功した場合、パスワードなしsudoがあればそのままシステム全体を掌握できる。物理的なアクセスが必要なデバイスでも、ネットワーク越しに操作されているRaspberry Piなら話は別だ。 IoT時代のエンドポイントセキュリティ Raspberry Piベースのデバイスが増える中で、「設定を変えていないから大丈夫」という安心感は危険だ。むしろ「デフォルトのままだから危ない」という認識が正しい。今回の変更は、その認識を製品レベルで是正した意味がある。 実務での活用ポイント 既存環境の確認 現在稼働中のRaspberry Pi OSを使っている場合、まず以下を確認したい。 出典: この記事は Raspberry Pi OS 6.2 locks down security with a major change to sudo access の内容をもとに、筆者の見解を加えて独自に執筆したものです。

April 15, 2026 · 1 min · 胡田昌彦

AIエージェントがマルチモーダルをシェルコマンド一発で扱える時代へ——MiniMax「MMX-CLI」の全貌

中国のAIスタートアップMiniMaxが、AIエージェントにマルチモーダル生成能力を直接与えるCLIツール「MMX-CLI」を公開した。テキスト・画像・動画・音声・音楽・ビジョン(画像理解)・検索の7モダリティを、MCP(Model Context Protocol)などの追加レイヤーなしに標準シェルコマンドから呼び出せる設計で、エージェント開発の現場に大きなインパクトをもたらす可能性がある。日本語圏ではほぼ未報道だが、注目に値するリリースだ。 MMX-CLIが解決しようとしている問題 現在のLLMベースのエージェントはテキスト処理には強い。だが「音声を合成する」「動画を生成する」「画像の内容を解析して次のアクションを決める」といったメディア系の処理をエージェントに組み込もうとすると、途端に話が複雑になる。APIラッパーを個別に書き、認証をそれぞれ管理し、MCPサーバーを立ち上げてエージェント環境と繋ぎ込む——そういった作業のコストが、マルチモーダルエージェント開発の大きな障壁になっている。 MMX-CLIはこの摩擦を「シェルコマンド」という最もシンプルなインターフェースで解消しようとする。npm install -g mmx-cli と mmx auth の2コマンドでセットアップ完了。あとはターミナルからコマンドを叩くだけで7つのモダリティが使える。 7つのモダリティ詳解 テキスト (mmx text): マルチターンチャット・ストリーミング出力・JSONモード対応。MiniMax-M2.7 をデフォルトモデルとして使用。 画像 (mmx image): テキストプロンプトから画像生成。アスペクト比・バッチ数の制御に加え、--subject-ref パラメータでキャラクターやオブジェクトの一貫性を複数枚にわたって保つ参照生成が可能。ビジュアルノベルやマンガ制作の補助ツールとしても面白い使い方が考えられる。 動画 (mmx video): デフォルトモデルは MiniMax-Hailuo-2.3。非同期ジョブに対応しており --async フラグでタスクIDを即返して後でポーリングする設計が可能。--first-frame で最初のフレームを画像指定するイメージコンディショニングにも対応している。 音声合成 (mmx speech): 30種以上のボイスから選択可能。速度・音量・ピッチ制御、字幕データ出力、パイプ経由のストリーミング再生に対応。最大10,000文字まで入力できる。 音楽生成 (mmx music): ジャンル・ムード・楽器・テンポ・BPM・キー・構成を細かく指定可能。--instrumental で楽器のみの生成も可。AIウォーターマーク埋め込みフラグも備えている。 ビジョン (mmx vision): ローカルファイルまたはURLから画像を解析。ローカルファイルは自動的にbase64エンコードしてVLMに渡す設計で、--prompt でより具体的な質問を指定できる。 検索 (mmx search): ウェブ検索との統合機能。エージェントが外部情報を取得するフローに組み込める。 エージェント環境との統合 MMX-CLIはCursorやOpenCodeなど複数のエージェント環境から直接呼び出せることを明示している。「エージェントがシェルコマンドを叩ける」というシンプルな事実を活かした設計で、MCP設定なしに既存のワークフローへ組み込める点が大きい。 実務への影響 プロトタイピング速度の変化: 例えば「スクリーンショットの内容を解析して音声で要約を読み上げる」ようなワークフローが、mmx vision --prompt "要約して" screenshot.png | mmx speech のようなUNIXパイプで繋げられる可能性がある。従来なら複数のAPIを手配し個別に認証を管理する必要があった処理が、大幅に簡素化される。 自律エージェントの設計に直結: エージェントが「生成した内容を画像や音声で出力する」「入力された画像を解析して次のステップを判断する」といった自律的なループを組む際の選択肢が広がる。非同期ジョブ対応(--async)も含め、長時間処理をエージェントが自律的に管理するシナリオへの対応も考慮されている。 日本語対応の事前確認を: MiniMaxは中国系スタートアップだ。mmx speech の日本語ボイス品質や、テキスト処理における日本語の精度については、導入前に実際に検証することを強く推奨する。エンタープライズ環境での採用を検討する場合は、データプライバシーポリシーと利用規約を必ず確認してほしい。 筆者の見解 AIエージェントの進化において、「何ができるか」よりも「どれだけ摩擦なく組み込めるか」がここ最近でより重要になってきていると感じている。 ...

April 15, 2026 · 1 min · 胡田昌彦

職場のAI活用に広がる格差:大卒と非大卒で利用率2.5倍差、研修提供はわずか16%——ニューヨーク連銀調査

ニューヨーク連邦準備銀行が2026年4月に発表した調査レポートが、職場における生成AI活用の「格差」を鮮明に浮かび上がらせた。AIが生産性を高めることは現場でも認識されつつある一方で、そのツールへのアクセスや研修機会が特定の層に偏在している実態が統計として示された。これは米国の話でありながら、日本のIT現場にとっても決して他人事ではない。 調査が示したAI活用の実態 ニューヨーク連銀が2025年11月に実施した「消費者期待調査(SCE)」の補足質問をもとにした本調査では、現在就業中の回答者のうち**39%**が過去12ヶ月以内に職場でAIツールを利用したと回答した。 この数字は一見高水準に思えるが、内訳を見ると格差が際立つ。 学歴・収入・雇用形態で広がる利用率の差 属性 AI利用率 大学卒業者 58.7% 非大卒者 22.9% 年収20万ドル超 66.3% 年収5万ドル未満 15.9% フルタイム労働者 42.7% パートタイム労働者 24.7% 大卒と非大卒の利用率差は実に2.5倍以上。高収入層と低収入層では4倍超の開きがある。AIが「すべての人の生産性を底上げするツール」と期待される一方で、現状はその恩恵が高学歴・高収入・フルタイムの労働者に集中している。 利用者の66%が「生産性向上を実感」 AIツールを実際に使っている層では、66%が「自分の生産性が上がった」と回答した。具体的には「タスクをより速く終えられる(40%)」「こなせるタスク数が増えた(22%)」という声が多い。一方で「まだ学習中のためむしろ時間がかかっている(19%)」という回答も見られ、学習コストの問題が依然として残っていることもわかる。 「研修提供16%」という現実 調査で最も注目すべきは、**雇用主によるAI研修の提供率がわずか15.9%**という数字だ。 就業者の38%が「AIツールの使い方に関する研修は重要だ」と答えているにもかかわらず、実際に研修を受けられる環境にある人は6人に1人にも満たない。さらに37%は「職場がAIツールを提供していない」、11%は「雇用主が積極的に使用を禁止している」と回答しており、ツール自体へのアクセス障壁も根強く残っている。 非大卒層が研修に年収の11.4%相当の価値を感じている逆転現象 特筆すべきは、最もAIを使えていない非大卒の労働者が、AI研修に年収の11.4%相当という高い価値を置いているという発見だ。使えていないからこそ潜在的な恩恵を強く認識しており、「学びたいのに機会がない」という状況が浮かび上がる。研修を望む理由としては「仕事が楽になる(68%)」「生産性が上がる(56.7%)」が上位を占め、「AIを使わない仕事は将来的に少なくなる(39.2%)」という危機感を持つ人も4割に迫る。 日本のエンジニア・IT管理者にとっての意味 この調査は米国のデータだが、日本の職場環境と照らし合わせると示唆に富む点が多い。 企業としての喫緊の課題は、AIツールへのアクセス整備と研修機会の提供だ。 「禁止」や「様子見」は問題を先送りするだけで、格差を拡大させる方向にしか働かない。使いたい社員が公式に提供されたツールを安心して使える環境を整えることが、企業としての優先事項になる。 IT管理者の観点では、「誰が使えていて、誰が使えていないか」を可視化することが出発点になる。アクセスや研修の機会が特定の部門や役職に偏っていないか、定期的に確認する仕組みが必要だ。 研修設計においては、「ツールの操作方法」よりも「業務の中でどう活かすか」という実践的な内容を中心に置くと定着しやすい。40%の利用者が「タスクを速く終えられる」と答えている背景には、自分の業務文脈に落とし込む試行錯誤の積み重ねがある。 筆者の見解 この調査を読んで改めて感じるのは、「禁止」や「未提供」という選択がいかに企業自身の競争力を削ぐかということだ。 「AIツールを禁止している」という11%の企業は、おそらく情報漏洩やコンプライアンスへの懸念から出た判断だろう。その懸念自体は正当だ。しかし禁止した瞬間に、社員はシャドーIT的に個人アカウントで使い始めるか、使うこと自体を諦める。前者はむしろセキュリティリスクを高め、後者は生産性向上の機会を逃す。どちらに転んでも企業にとって良い結果にならない。 正しい方向性は「安全に使える仕組みを先に整える」ことだ。社内データをAIに入力する際のガイドライン、承認されたツールの一覧、簡単な研修コンテンツ——このくらいのものを揃えるだけで、多くのリスクはコントロール可能になる。整備が先、解禁は後、ではなく、整備と並走しながら段階的に解禁していく動き方が現実的だ。 もう一点、この調査が示す「格差の固定化」リスクも看過できない。高学歴・高収入層がAIを使いこなし、そうでない層がアクセスできないまま時間が経過すると、AIはむしろ格差を拡大する道具になってしまう。AIが本来持つ「専門知識を持たない人でも高度な作業ができるようにする」というポテンシャルが、アクセス格差によって逆説的に活かされない状況だ。 調査が示す「非大卒層が研修に最も高い価値を感じている」という事実は、そのポテンシャルへの正確な期待値の反映だと思う。彼ら・彼女らが最も多くを得られる立場にいながら、機会が届いていない。ここに企業が介入する意義がある。 「情報を追うより、実際に使って成果を出す経験を積む」——これが個人レベルでの正解だとすれば、企業レベルでの正解は「使いたい人が使える環境を作る」だ。研修を16%しか提供できていない現状は、まだ多くの余地が残っていることを示している。逆に言えば、今ここに投資できる企業には大きなアドバンテージがある。 出典: この記事は Use of Gen AI in the Workplace and the Value of Access to Training の内容をもとに、筆者の見解を加えて独自に執筆したものです。

April 15, 2026 · 1 min · 胡田昌彦

AI・テクノロジーの情報を発信しています

YouTube

AI・テクノロジーの最新トレンドを動画で配信中

note

技術コラム・深掘り記事を公開中