Claude Codeの出力の90%が「スター数2未満」のリポジトリへ——個人開発者が牽引するAIコーディング革命

Claude Codeの普及状況を可視化するサイト「claudescode.dev」が明らかにした驚くべき実態 AnthropicのAIコーディングツール「Claude Code」のGitHub上での活動をリアルタイムで追跡するサービス「claudescode.dev」が公開したデータが、開発者コミュニティで注目を集めている。最も衝撃的な事実は、Claude Code関連の出力の90%がGitHubスター数2未満のリポジトリに向けられているという点だ。 爆発的な普及の数字 2025年2月24日のClaude Code正式ローンチ以降、その採用ペースは目を見張るものがある。現時点での主要指標は以下の通りだ。 総コミット数: 2,080万件超 アクティブリポジトリ数: 108万7,408件 過去7日間の新規リポジトリ: 11万4,785件 追加コード行数: 504億行以上 削除コード行数: 197億行以上 週次成長率: +8% 倍増ペース: 約61日 この数字は、Claude Codeがすでに単なる「話題のツール」を超え、日常的な開発ワークフローに組み込まれつつあることを示している。 「無名リポジトリ」が主戦場という意味 スター数2未満のリポジトリへの集中は、一見すると地味な統計に思えるかもしれない。しかし、これはむしろポジティブなシグナルとして解釈できる。 人気OSSプロジェクトや企業の公開リポジトリではなく、個人の学習プロジェクト、プロトタイプ、個人ツール、スタートアップの初期プロダクトといった草の根レベルの開発でClaude Codeが活発に使われていることを意味するからだ。AIコーディング支援が一部のエキスパートや大企業だけの特権ではなく、あらゆるレベルの開発者に民主化されているといえる。 使われている言語 言語別の分布も興味深い。 順位 言語 シェア コミット数 1位 TypeScript 34.8% 725万件 2位 Python 18.9% 392万件 3位 JavaScript 10.2% 213万件 TypeScriptが首位を占めていることは、Webフロントエンド・バックエンド開発者によるClaude Code採用が特に活発なことを示唆している。Pythonが2位に入っているのは、AIアプリケーション・データサイエンス系プロジェクトでの活用が進んでいるためと考えられる。 日本の開発者への示唆 このデータは、日本の開発者にとっても無縁ではない。GitHub上のコミット数増加ペースが週8%・倍増まで61日というペースは、半年後には現在の数倍規模に達する計算だ。「まだAIコーディングツールを試していない」という開発者にとっては、乗り遅れのリスクを感じさせる数字でもある。 一方、コード行数ベースで見ると純増が300億行以上という規模は、コードの質や保守性に関する議論も呼んでいる。Hacker Newsのコメント欄では「量より質をどう担保するか」という観点からの議論も活発だ。 AIが生成するコードの急増は、コードレビュー、テスト自動化、セキュリティスキャンといった品質保証の領域にも新たな需要を生み出している。Claude Codeの普及は、開発プロセス全体の変革を加速する触媒になりつつある。 元記事: 90% of Claude-linked output going to GitHub repos w <2 stars

March 26, 2026 · 1 min · 胡田昌彦

PolyShell脆弱性が猛威——脆弱なMagentoストアの56%以上が攻撃対象に

脆弱なMagentoストアの半数以上が攻撃対象に ECサイト向けオープンソースプラットフォーム「Magento Open Source 2」およびAdobe Commerceに存在する重大な脆弱性「PolyShell」を悪用した攻撃が急速に拡大している。eコマースセキュリティ企業のSansecによると、脆弱なストア全体の**56.7%**がすでに攻撃の標的となっていることが確認されている。 公開からわずか2日で大規模悪用が始まる 攻撃が本格化したのは2026年3月19日。脆弱性の詳細が公開されてからわずか2日後という驚くべきスピードで、攻撃者による大規模な悪用(マスエクスプロイテーション)が開始された。脆弱性の公開から実際の攻撃開始までの期間がこれほど短いケースは珍しく、ECサイト運営者にとって非常に危険な状況だ。 脆弱性の仕組み PolyShellの問題はMagentoのREST APIに起因する。カートアイテムのカスタムオプションとしてファイルアップロードを受け付ける仕様を悪用し、ポリグロットファイル(複数のファイル形式として解釈できる特殊なファイル)を送りつけることで以下の攻撃が可能になる。 リモートコード実行(RCE): Webサーバーの設定によっては任意のコードを実行可能 ストアドXSSによるアカウント乗っ取り: 保存型クロスサイトスクリプティングを通じた管理者権限の奪取 Adobeは2026年3月10日にリリースしたバージョン2.4.9-beta1でこの問題を修正したが、現時点では安定版(本番環境向けリリース)への反映はまだ行われていない。BleepingComputerがAdobeに正式なセキュリティアップデートの公開時期を問い合わせたが、回答は得られていないという。 WebRTCを悪用した次世代型カードスキマー Sansecはさらに、一連の攻撃の中で検出された高度なクレジットカード情報窃取ツール(スキマー)についても報告している。このスキマーはWebRTC(Web Real-Time Communication)を悪用してデータを外部へ送信するという、これまでにない手法を採用している。 WebRTCはHTTPではなくDTLS暗号化されたUDP通信を使用するため、多くのサイトで設定されているコンテンツセキュリティポリシー(CSP)のconnect-src指定をすり抜けやすい。 具体的な動作としては、 軽量なJavaScriptローダーとして埋め込まれ、偽のSDP交換を通じてC2サーバーに接続 暗号化されたチャネル経由で第2段階のペイロードを受信 既存のスクリプトnonceの再利用やunsafe-evalへの fallbackによりCSPを回避して実行 requestIdleCallbackを使って実行タイミングを遅らせ、検出を回避 Sansecによれば、このスキマーは時価総額1,000億ドル超の自動車メーカーのECサイトでも検出されたが、同社は通知に応答していないという。 運営者が今すぐ取るべき対策 Adobeの安定版パッチがまだリリースされていないため、ECサイト運営者は以下の対応を急ぎたい。 Sansecが公開している攻撃元IPアドレスリストを参照し、WAFやファイアウォールでブロックする ファイルアップロード設定を見直し、不要なファイル形式を拒否する サーバーログやSansecが公開している侵害インジケーター(IoC)を使って既感染がないか確認する Adobeのセキュリティアドバイザリを継続的に監視し、安定版パッチが公開され次第すみやかに適用する Magentoは国内外を問わず多くのECサイトで利用されているプラットフォームであり、日本企業の運営するサイトも例外ではない。パッチ待ちの間も緩和策を積極的に実施することが強く推奨される。 元記事: PolyShell attacks target 56% of all vulnerable Magento stores

March 26, 2026 · 1 min · 胡田昌彦

GitHubがAIによる脆弱性検出を導入——CodeQLだけでは難しかった言語・フレームワークまでカバー範囲を拡大

GitHubがAI搭載のバグ検出機能を追加——セキュリティカバレッジを大幅拡充 GitHubは、コードセキュリティツール「GitHub Code Security」にAIベースのスキャン機能を追加すると発表した。従来のCodeQL静的解析を補完する形でAI検出を組み合わせ、これまでカバーが難しかった言語・フレームワークへの対応を広げる。 なぜAIが必要か——CodeQLだけでは届かない領域 CodeQLはC/C++、Java、Python、JavaScriptなど主要言語に対して高精度なセマンティック解析を提供してきた。しかし、Shell/Bash、Dockerfile、Terraform、PHPといったエコシステムでは、従来の静的解析だけでは「十分な精査ができていなかった」とGitHubは説明している。 今回導入されるハイブリッドモデルでは、プラットフォーム側がプルリクエストごとにCodeQLとAIのどちらを使うかを自動判断する。開発者は意識することなく、より広いカバレッジによる恩恵を受けられる設計だ。 新機能は2026年第2四半期前半にパブリックプレビュー入りする予定で、早ければ来月(4月)にも公開される見込みだ。 内部テストで17万件以上の検出——開発者満足度80% GitHubが公開した内部テストの結果によれば、30日間で17万件以上の検出結果を処理し、開発者からの**ポジティブフィードバックは80%**に達した。検出された問題は「弱い暗号化・設定ミス・安全でないSQL」などが中心で、プルリクエストの画面上に直接表示される。 Copilot Autofixとの連携で修正時間も短縮 GitHub Code Securityとセットで機能するのが「Copilot Autofix」だ。2025年の統計(46万件以上のセキュリティアラートを対象)によると、Autofixを使った場合の平均解決時間は0.66時間で、使わない場合(1.29時間)と比べて約半分に短縮されている。 利用条件と料金 GitHub Code Securityはすべてのパブリックリポジトリでは無料(一部制限あり)で利用できる。プライベート・内部リポジトリでフル機能を使うには「GitHub Advanced Security(GHAS)」アドオンの契約が必要だ。日本企業でGitHub Enterpriseを利用している場合はGHASのライセンス状況を確認しておきたい。 開発フローへのセキュリティ統合が加速 今回の動きは、セキュリティをCI/CDパイプラインに組み込む「シフトレフト」のトレンドをさらに推し進めるものだ。AIによる検出がコードレビューの段階で自動的に行われることで、脆弱性が本番環境に混入するリスクを早期に排除できる。開発チームがセキュリティ専門知識を持たなくても、一定水準の安全性を担保しやすくなる点は特に中小規模のチームにとってメリットが大きいだろう。 元記事: GitHub adds AI-powered bug detection to expand security coverage

March 26, 2026 · 1 min · 胡田昌彦

Windowsの不安定性が企業環境に深刻な打撃——最新レポートが明かす業務停止の実態

Windowsの不安定性が企業に深刻な影響——調査で明らかになった業務停止の実態 企業のIT環境においてWindowsの不安定動作が深刻な問題を引き起こしているという新たな調査データが公開された。Neowinが報じた最新レポートによれば、Windowsの不具合や予期せぬ障害が引き起こす業務停止は、多くの組織が想定していた水準をはるかに超えているという。 「まさかここまでとは」——現場の声 近年、Windowsのアップデートに起因するシステムトラブルは後を絶たない。2024年7月に発生したCrowdStrikeのセンサー更新によるブルースクリーン(BSOD)の世界的連鎖障害は記憶に新しいが、それ以外にも月次の品質更新プログラム(Quality Update)やドライバーの自動更新による不具合が断続的に報告されている。今回の調査はそうした積み重なった問題の実態を数値で裏付けるものだ。 企業ITが直面する三重苦 調査が指摘する主な課題は以下の3点だ。 障害頻度の過小評価:IT部門が把握しているインシデント数は、実際にエンドユーザーが経験している障害の一部に過ぎない。サイレントな生産性低下が大量に発生している。 復旧コストの膨張:一件あたりの障害対応にかかる時間とコストが、組織の想定予算を超えるケースが増加している。 アップデート管理の複雑化:Windowsのアップデートサイクルが加速する一方で、エンタープライズ向けのテスト・検証リソースが追いついていない。 日本企業への示唆 日本企業においても、Windows 10のサポート終了が2025年10月に迫っており、Windows 11への移行を進める組織は多い。しかし移行プロジェクトと並行して、既存環境の安定運用という二正面作戦を迫られているIT部門の負担は小さくない。 MicrosoftはWindows Update for Business(WUfB)やMicrosoft Intuneを活用した段階的展開(Staged Rollout)を推奨しており、更新プログラムの品質問題への対応としてHotpatch(再起動不要のパッチ適用)機能の拡充も進めている。ただし、これらのツールを適切に活用するには相応の運用スキルと体制が求められる。 今後の展望 Microsoftは品質向上に向けた取り組みを継続しているが、今回のレポートは企業側でも「受け身の対応」から「能動的なリスク管理」へのシフトが必要であることを示唆している。定期的なシステムヘルスチェック、ロールバック手順の整備、そしてユーザーからのフィードバックを素早く収集する仕組みの構築が、Windowsを安定的に運用する上での鍵となりそうだ。 元記事: Report: Windows instability is causing a lot of issues in enterprise environments

March 26, 2026 · 1 min · 胡田昌彦

GitHub Copilotがユーザーデータをモデル学習に利用へ——オプトアウト期限を逃すと自動同意に

GitHub Copilotの利用データが学習に使われる——あなたは知っていたか? MicrosoftのGitHub部門は、AIコーディングアシスタント「GitHub Copilot」の利用データを、モデルのトレーニングおよび第三者との共有に使用する方針を近く導入することを明らかにした。問題は、ユーザーが積極的にオプトアウトしない限り、自動的に同意したとみなされる点だ。 何が変わるのか 新方針の下では、GitHub CopilotのユーザーがIDEで入力したコード補完の要求・受け入れ・拒否といったインタラクションデータが、GitHubおよびMicrosoftのAIモデル改善に活用される可能性がある。さらに、このデータが「パートナー企業」との間で共有されることも示唆されている。 オプトアウトの手続き自体は用意されているが、期限を過ぎると自動的にオプトイン状態となる仕様であり、見落とすリスクが高い。 企業利用ユーザーは要注意 個人開発者はもちろん、企業でCopilotを導入しているIT管理者にとっては特に重大な問題だ。業務コード・独自アルゴリズム・機密ロジックが学習データとして外部に渡る可能性があり、知的財産の観点から慎重に判断が求められる。 日本でもGitHub Copilotの法人導入は急速に進んでいるが、今回の変更を受けて利用規約の再確認と、社内ガイドラインの見直しを行う企業が増えることが予想される。 どう対処するか 現時点でユーザーが取れる行動は以下の通りだ。 個人ユーザー: GitHubアカウントのCopilot設定ページで、データ共有に関するオプションを確認・オフに設定する 企業管理者: GitHub Enterprise の管理コンソールからポリシーを組織単位で制御し、ユーザーが個別に変更できないよう設定をロックする 期限の確認: GitHubからのメール通知を見逃さないよう、通知設定を確認しておく AIツールとデータプライバシーの緊張関係 OpenAI、Google、Microsoftなど主要AI企業がユーザーデータの学習利用を拡大する流れは続いており、GitHub Copilotも例外ではない。利便性と引き換えに、どこまでデータを提供するかの判断を、開発者一人ひとりが求められる時代になっている。 オプトアウト期限の詳細はGitHubの公式アナウンスで確認することを強く推奨する。 元記事: GitHub Copilot will soon use your data to train its model and share it with others

March 26, 2026 · 1 min · 胡田昌彦

DeepSeek V4発表:1兆パラメータのマルチモーダルAI、階層型KVキャッシュでメモリ40%削減を実現

DeepSeek、2025年1月以来最大のモデル「V4」を発表 中国・杭州に拠点を置くAI研究機関DeepSeekが、新たな大規模言語モデル「DeepSeek V4」を公開した。2025年1月のリリース以来、約2か月ぶりとなるメジャーアップデートで、マルチモーダル対応が最大の特徴だ。 1兆パラメータ規模でテキスト・画像・動画に対応 V4はテキスト生成にとどまらず、画像および動画の生成にも対応したマルチモーダルモデルとして設計されている。パラメータ数は1兆(1 Trillion)規模に達し、前世代モデルから大幅にスケールアップされた。 これにより、単一モデルで複数のモダリティ(様式)を扱える汎用AIとしての活用が期待される。OpenAIの「GPT-4o」やGoogleの「Gemini 1.5 Pro」といったマルチモーダルモデルと競合する位置付けだ。 独自技術でメモリ効率と推論速度を大幅改善 大規模モデルの実用化における課題として常に挙げられるのが、推論時のメモリ消費と処理速度だ。DeepSeekはV4においてこれらの課題に対し、二つの独自技術で挑んでいる。 ひとつは階層型KVキャッシュ(Tiered KV Cache)。KV(Key-Value)キャッシュはトランスフォーマーモデルの推論を高速化するための仕組みだが、V4では優先度に応じてキャッシュを階層管理することでメモリ使用量を従来比40%削減した。 もうひとつはSparse FP8デコーディング。FP8(8ビット浮動小数点)形式で疎(スパース)な計算を行うことで、推論速度を1.8倍向上させている。 これらの最適化は、より少ないハードウェアリソースで大規模モデルを動かすことを可能にし、クラウドAPI提供コストの低減や、エッジデバイスへの展開可能性を広げるものだ。 中国製AIチップ向けに最適化、Huawei・Cambriconと協力 注目すべきは、V4がNVIDIA製GPUだけでなく、中国AI半導体大手のHuawei(ファーウェイ)およびCambricon(カンブリコン)の最新ハードウェアに最適化されている点だ。 米中の半導体規制が続く中、中国AI産業は国産チップへの依存度を高めており、DeepSeekがその代表格と協業することは業界的にも重要なシグナルといえる。日本市場においても、AI推論インフラの調達先多様化という観点から、この動向は注視する価値がある。 DeepSeekの台頭と今後の展望 DeepSeekはV3やR1モデルで高い性能を低コストで実現し、2025年初頭に世界的な注目を集めた。V4はその流れを受けてマルチモーダル領域へと踏み込む野心的なリリースであり、米国主要AIベンダーとの技術競争がさらに激化することは必至だ。 オープンソース志向を維持しつつ、国産チップとの連携強化という独自路線でどこまで存在感を示せるか、引き続き動向が注目される。 元記事: DeepSeek V4 Multimodal Model: 1 Trillion Parameters with 40% Memory Reduction via Tiered KV Cache

March 26, 2026 · 1 min · 胡田昌彦

Replit Agent 4が登場——処理速度10倍、評価額6ヶ月で3倍の9000億円超えへ

Replit Agent 4、マルチエージェント協調で開発速度を劇的に向上 AIコーディングツール大手のReplitが、最新世代となる「Agent 4」をリリースした。同社によれば、従来比で処理速度が10倍に向上しており、複数のAIエージェントが協調して作業する「マルチエージェント協調ワークフロー」の採用が最大の技術的特徴となっている。 マルチエージェント協調とは何か 従来のAIコーディングエージェントは、単一のモデルがタスクを逐次処理する構造が主流だった。Agent 4では、複数の専門化されたエージェントが並列・協調して動作することで、設計・実装・テスト・デバッグといった工程をほぼ同時進行できる。この「分業と協調」の仕組みが、体感速度の大幅な向上につながっているとされる。 Cursor、GitHub Copilotなどと激しく競合するAIコーディング市場において、Replitはブラウザだけで動作するクラウドネイティブな開発環境という差別化軸を維持しながら、エージェント機能の強化で存在感を高めている。 評価額が6ヶ月で3倍に急騰 技術面の進化と並行し、Replitのビジネス面での成長も著しい。同社の企業評価額は直近6ヶ月で30億ドル(約4,500億円)から90億ドル(約1兆3,500億円)へと3倍に跳ね上がった。AIコーディングエージェント市場全体への投資家の期待値が急速に高まっていることを示す数字だ。 広がるAIインフラ投資の地平 Replitの成長は、AIスタートアップへの投資全体が「モデル開発」から「エンタープライズ運用に必要な周辺インフラ」へシフトしている潮流とも一致する。2026年3月の直近1週間だけでも、AIネットワーキング基盤のNexthop AI(5億ドル調達)、AIコード安全性検証のAxiom(2億ドル調達)、AIサイバーセキュリティのKai(1億2,500万ドル調達)など、AIエージェントを「安全に・高速に・大規模に」動かすためのレイヤーへ巨額資金が流入している。 特にAxiomが手掛ける「AIが生成したコードを数学的に証明・検証する」技術は、CursorやReplitのようなAIコーディングツールの普及によって生じる「コード生成速度と検証速度のギャップ」を埋めるものとして注目される。企業がAIエージェントを本番環境に投入する前段階として、こうした「信頼・ガバナンス」レイヤーへの需要が急増している。 日本への示唆 国内でもAIコーディングツールの業務導入が進むなか、「速く作れる」だけでなく「安全を担保できるか」という問いが開発現場での焦点になりつつある。Replitのような高速化と、Axiomのような検証技術——この両輪がそろって初めて、AIエージェントの本格的な社会実装が可能になるといえるだろう。 元記事: Replit Agent 4 Delivers 10x Speed Improvement with Multi-Agent Cooperative Workflows

March 26, 2026 · 1 min · 胡田昌彦

GLM-5オープンソース公開——MITライセンス・自己ホスティング対応でフロンティアモデル並みの性能を実現

GLM-5がオープンソース界の水準を塗り替える 中国のAI企業Zhipu AIが開発した大規模言語モデルGLM-5が、オープンソースとして公開された。最大744Bパラメータ(Mixture of Experts構成で常時アクティブなのは約32B)という規模を持ちながら、ライセンスはMITライセンスを採用。商用利用・自己ホスティングを含む幅広い活用が可能となっており、オープンソースモデルの新たな基準点として注目を集めている。 推論特化モデルとしての設計思想 GLM-5はいわゆる「推論特化型LLM(Reasoning LLM)」として設計されている。従来の言語モデルが一発回答を得意とするのに対し、推論型モデルは数学的証明・コーディング・複雑な問題解決など、複数ステップにわたる論理的思考を必要とするタスクを得意とする。 内部では「思考モード(Thinking Mode)」を持ち、回答を出力する前に中間ステップを生成・検証するチェーン・オブ・ソート(Chain-of-Thought)を活用する。これにより、単純なQ&Aでは見落とされがちな論理的整合性を確保できる。 ベンチマーク性能——フロンティアモデルに肉薄 GLM-5がとくに評価されているのがSWEベンチマーク(実際のGitHubイシューに基づくソフトウェアエンジニアリング評価)での成績だ。OpenAIのGPT-4oやAnthropicのClaudeといったクローズドの最先端モデルと比較しても遜色ない数値を記録しており、「オープンソースであってもプロプライエタリモデルに対抗できる」ことを実証した形となっている。 Mixture of Experts——大規模性能を効率的に GLM-5はMoE(Mixture of Experts)アーキテクチャを採用している。総パラメータ数は355B〜744Bに達するが、1トークンの推論時にアクティブになるのは一部のエキスパートのみ。これにより、理論上の表現力を高く保ちながら、推論時の計算コストを抑えることができる。 同様のアーキテクチャはQwen3やMoonshot Kimi K2など2026年注目のモデル群にも広く採用されており、高性能モデルの設計トレンドとして定着しつつある。 日本語・アジア言語対応への期待 Zhipu AIはGLM系列を通じて多言語対応に積極的であり、日本語を含む東アジア言語での性能にも定評がある。自己ホスティングが可能なMITライセンスのもと、日本国内の企業や研究機関がオンプレミス環境でGLM-5を活用するシナリオも現実的になってきた。個人情報保護・機密データを扱う業務での応用において、クラウドAPIへの依存を排除できる点は特筆すべきメリットだ。 2026年、推論型オープンソースモデルの競争が本格化 AI業界では2026年を「推論ファースト元年」と位置づける見方が強まっている。単に流暢なテキストを生成するだけでなく、エージェントとして自律的に計画・実行・検証を繰り返せるモデルへの需要が急増しているためだ。GLM-5の登場はその流れを象徴するものであり、オープンソースエコシステム全体の底上げに寄与すると期待される。 コスト・プライバシー・カスタマイズ性を重視する開発者やエンタープライズにとって、GLM-5は2026年に最初に評価すべきモデルの一つとなりそうだ。 元記事: GLM-5 Open-Source Model Debuts with Frontier-Level Performance, MIT License and Self-Hosting Support

March 26, 2026 · 1 min · 胡田昌彦

HTMLもDOMも不要——Ai2のオープンソースWebエージェント「MolmoWeb-4B」がスクリーンショットだけでブラウザを操作

スクリーンショットだけでWebを操る——MolmoWeb-4Bの衝撃 Allen Institute for AI(Ai2)が開発したオープンソースのマルチモーダルWebエージェント「MolmoWeb-4B」が注目を集めている。従来のWebスクレイピングやブラウザ自動化ツールがHTMLやDOM(Document Object Model)の解析に依存していたのに対し、MolmoWeb-4BはWebページのスクリーンショットだけを入力として受け取り、視覚情報のみから操作すべき要素を判断・実行するという、まったく異なるアプローチを採用している。 視覚駆動型エージェントの仕組み MolmoWeb-4Bは、画像とテキストを同時に扱えるマルチモーダルモデルをベースに構築されている。エージェントはWebページの見た目をそのまま「見て」理解し、以下のようなアクション空間を通じてブラウザを操作する。 goto(url) — 指定URLへ遷移 click(x, y) — 正規化座標(0.0〜1.0)でのクリック type("text") — フォーカスされた要素へのテキスト入力 scroll(dir) — ページスクロール press("key") — キーボード操作 この設計により、JavaScriptで動的に生成されたコンテンツや、アクセシビリティ属性が整備されていないWebサイトでも、人間と同様に「見た目」から操作できるようになる。日本語サイトなど、DOM構造が複雑なページへの適用でも原理的に問題が生じにくい点は、日本の開発者にとっても注目すべき特徴だ。 4ビット量子化で一般GPUでも動作 モデルサイズは4Bパラメータ(40億パラメータ)と比較的コンパクトで、4ビットNF4量子化(bitsandbytes使用)を適用することで、約6GBのVRAMに収まる。Google Colab上でも動作確認されており、高性能なサーバーを持たない個人開発者や研究者でも試しやすい点が評価されている。 実装はHugging Faceのtransformersライブラリと互換性があり、以下のように標準的なAPIでモデルをロードできる。 元記事: MolmoWeb-4B: Building a Vision-Guided Web AI Agent Using Multimodal Reasoning and Action Prediction

March 26, 2026 · 1 min · 胡田昌彦

Windows 11の2026年3月アップデートで来る9つの新機能まとめ——絵文字16.0対応からネットワーク速度テスト統合まで

Windows 11の3月アップデート、今度こそ「当たり」のPatch Tuesday Microsoftが2026年3月のPatch Tuesdayアップデートで、Windows 11に9つの新機能・改善を届けることが明らかになった。Windows Centralがまとめた情報によれば、今回のアップデートは「珍しく実際に使いたいと思えるもの」として注目されている。 主な新機能・変更点 絵文字16.0(Emoji 16.0)サポート Unicode Consortium が策定した最新の絵文字規格「Emoji 16.0」に対応する。新しい絵文字が加わることで、メッセージングやSNSでの表現力がさらに広がる。 タスクバーへのネットワーク速度テスト統合 タスクバーから直接ネットワーク速度テストを実行できる機能が追加される。サードパーティアプリを開かずに回線速度を手軽に確認できるようになり、リモートワーク環境での接続品質チェックが格段に楽になりそうだ。 File Explorerの高速検索バー ファイルエクスプローラーに高速な検索バーが実装される。従来の検索は動作が遅く不満の声も多かっただけに、日常的にファイル管理をするユーザーには朗報といえる。 Sysmonのオプション機能としての組み込み セキュリティ監視ツールとして知られる「Sysmon(System Monitor)」がWindowsのオプション機能として標準統合される。これまでは別途インストールが必要だったが、Windows側から直接有効化できるようになる。セキュリティ担当者やITプロフェッショナルには特に嬉しい変更だ。 WebP画像の壁紙対応 WebP形式の画像をデスクトップ壁紙として設定できるようになる。WebPはGoogleが開発した次世代画像フォーマットで、高圧縮率と高画質を両立している。好みの画像をわざわざJPEGやPNGに変換する手間が省けるようになる。 日本のユーザーへの影響 絵文字16.0対応は、LINEやX(旧Twitter)など絵文字文化が根付く日本のユーザーにとって特に歓迎される変更だろう。また、テレワーク継続中の企業が多い現状において、タスクバーからのネット速度確認機能は実用性が高い。 Sysmonの標準統合は、セキュリティ監視の観点から企業IT部門にも注目される。ゼロトラストセキュリティの導入が進む日本企業にとって、エンドポイント監視の敷居が下がることは意義深い。 配信時期 今回の機能群は2026年3月のPatch Tuesdayアップデートとして提供される予定。Windows Updateを通じて自動配信されるため、基本的にはユーザー側での特別な作業は不要だ。 元記事: 9 new Windows 11 features coming in March 2026 | Windows Central

March 26, 2026 · 1 min · 胡田昌彦

Mistral Large 3がMicrosoft Foundryで利用可能に——Apache 2.0ライセンスのオープンモデルがエンタープライズ市場に本格参入

Mistral Large 3、Azure(Microsoft Foundry)で正式提供開始 Microsoftは、フランスのAIスタートアップMistral AIが開発した最新フロンティアモデル「Mistral Large 3」をMicrosoft Foundry(Azure)上で利用可能にしたと発表した。Apache 2.0ライセンスのオープンウェイトモデルとして、商用利用・ファインチューニングの自由度が高く、エンタープライズ向けのAI開発基盤として注目を集めている。 オープンモデルとして最強クラスの性能 Mistral Large 3は、DeepSeekやGPT OSSファミリーと並ぶグローバルトップクラスのオープンモデルと位置づけられる。単純なベンチマーク最適化にとどまらず、実際のエンタープライズ用途を想定した設計が特徴だ。 主な性能特性は以下の通り: 高精度な命令追従(Instruction Following): タスク指示への正確な準拠、低ハルシネーション率、構造化出力の安定したフォーマット 長コンテキスト処理: 長文書類・複数ステップのシーケンス・長期対話セッションにわたって一貫した推論が可能 マルチモーダル推論: テキストと画像を組み合わせた推論、ビジュアルQ&A、図表の解釈などに対応 特に多ターン会話や複雑な長文入力におけるブレークダウンの少なさは、他のオープンモデルと比較して際立つとMistral AIは述べている。 Apache 2.0ライセンスが生む圧倒的な自由度 日本を含むグローバル企業にとって重要なのが、ライセンス面での優位性だ。Mistral Large 3はApache 2.0ライセンスのもとで提供されており、以下が可能となる: 商用アプリケーションへの組み込み(帰属表示不要) モデルウェイトのエクスポートとオンプレミス展開 自社VPC・エッジ・ソブリンクラウド環境での実行 自由なファインチューニングとカスタマイズ 「中国外で開発されたフロンティアレベルの完全オープンモデル」という点で、ベンダーロックイン回避を求める企業に対し強い訴求力を持つ。 Microsoft Foundryとの統合でエンタープライズ展開を加速 Azure上のMicrosoft Foundryは、モデルの開発・評価・デプロイを一元管理できるエンドツーエンドのワークスペースを提供する。Mistral Large 3はこの基盤に統合されており、RAG(Retrieval-Augmented Generation)、エージェントシステム、ドキュメント理解、長文要約などのユースケースで即座に活用可能だ。 日本企業においても、社内文書検索や業務自動化フローへの適用が現実的な選択肢となってくる。GPT-4系列と異なり、オープンウェイトであることから自社環境への持ち込みや細かなカスタマイズを重視する組織にとって、特に魅力的な選択肢といえるだろう。 まとめ Mistral Large 3のAzure提供開始は、オープンウェイトモデル市場における重要な転換点だ。フロンティア級の性能・完全なオープンライセンス・Microsoft Foundryによるエンタープライズサポートという三拍子が揃ったことで、クローズドモデル一辺倒だった企業のAI戦略に新たな選択肢が加わった形となる。 元記事: Mistral Large 3 on Microsoft Foundry: Open, Multimodal, Enterprise-Ready

March 26, 2026 · 1 min · 胡田昌彦

Azure AI Foundryが大幅強化——GPT-4.5プレビュー、NVIDIA NIM統合、RFTによるエンタープライズAI最適化が一挙解禁

Azure AI Foundryが大規模アップデート——エンタープライズAI基盤が次のステージへ Microsoftは、エンタープライズ向けAIアプリケーションの設計・カスタマイズ・管理を一元化するプラットフォーム「Azure AI Foundry」に対し、大規模なアップデートを発表した。新モデルの追加、ファインチューニング・蒸留技術の強化、エージェント向け新ツールの提供開始が柱となっており、AIの実験段階から実業務への展開を加速させることが目的だ。 GPT-4.5、Azure OpenAI Serviceでプレビュー提供開始 今回の目玉の一つが、GPT-4.5のAzure OpenAI Serviceへのプレビュー追加だ。GPT-4.5はスケーリングと教師なし学習技術の進化を示すモデルで、以下の点でGPT-4oを大きく上回る。 ハルシネーション率の低下: 61.8%(GPT-4o)→ 37.1%(GPT-4.5) 正確性の向上: 38.2%(GPT-4o)→ 62.5%(GPT-4.5) 自然な対話体験: より高い「EQ」(感情的知性)により、コーディング・文章作成・問題解決をより効果的にサポート エンタープライズ向けに即日提供が開始されており、GitHub Copilot EnterpriseユーザーもGitHub Copilot Chat経由で利用可能となっている。業務メール作成からプロジェクト管理、複雑なワークフロー自動化まで幅広い用途に対応する。 Phiシリーズ・Stability AIモデルも続々展開 Microsoftが開発するコンパクトモデル「Phi」シリーズも新世代モデルを投入した。 Phi-4-multimodal: テキスト・音声・視覚を統合したマルチモーダルモデル。小売店舗のキオスク端末がカメラと音声入力で商品トラブルを診断するといったユースケースが想定される。 Phi-4-mini: 38億パラメータながら128Kトークンのコンテキストウィンドウを持ち、コーディング・数学タスクで大規模モデルを凌駕。推論速度は旧世代比30%向上。 また、画像生成AIで知られるStability AIのモデル群も統合された。Stable Diffusion 3.5 Largeはマーケティング素材の高品質生成、Stable Image Ultraはプロダクト画像のフォトリアリスティックな生成を可能にする。 NVIDIA NIM・AgentIQとの統合でエンタープライズAI最適化が加速 今回のアップデートで特に注目されるのが、NVIDIA NIMマイクロサービスおよびAgentIQツールキットとの統合だ。これにより、AIワークロードの推論効率をハードウェアレベルで最適化する選択肢が広がった。さらに、NVIDIA Nemotronモデルのサポートも発表されており、産業向けAIアプリケーションの選択肢が一層充実する。 ファインチューニング手法の拡充——RFTとSFTの新オプション カスタマイズ面では、o4-miniを使ったReinforcement Fine-Tuning(RFT)が利用可能になったほか、GPT-4.1-nanoおよびLlama 4 Scoutを使ったSFT(教師あり微調整)も追加された。RFTは報酬信号を使ってモデルの推論能力を特定タスクに最適化する手法で、法律文書分析や金融レポート生成など、精度が求められる業務ユースケースへの活用が期待される。 まとめ——エンタープライズAI基盤としての競争力を強化 今回の一連のアップデートは、AzureをAI本番運用のエンタープライズ基盤として選ばせるためのMicrosoftの本気度を示している。GPT-4.5の精度向上、小型・高効率なPhiシリーズ、NVIDIAとの深い統合、多様なファインチューニング手法——これらが揃うことで、企業はユースケースに応じたAI戦略を柔軟に設計できるようになる。日本企業にとっても、Azureを基盤に据えたAI導入の選択肢が大幅に広がったといえるだろう。 元記事: Announcing new models, customization tools, and enterprise agent upgrades in Azure AI Foundry

March 26, 2026 · 1 min · 胡田昌彦

Azure AI FoundryのAgent Service・Observability・Foundry PortalがGA——エンタープライズAIエージェント基盤が本格始動

Azure AI Foundryが本番対応へ——3つの主要機能がGA Microsoftは、Azure AI Foundryの中核をなすAgent Service、Observability(可観測性)、Foundry Portalの3機能を正式リリース(General Availability)した。これにより、エンタープライズグレードのAIエージェント基盤として、開発から本番運用までのフルスタックが整ったことになる。 本番対応SDKが主要4言語で利用可能に Agent Serviceでは、Python・JavaScript・Java・.NET向けの本番対応SDKが揃い、既存の企業システムへの統合が大幅に容易になった。従来のプレビュー期間中に蓄積されたフィードバックをもとに安定性が強化されており、PoC(概念実証)から本番システムへの移行を検討していたチームにとって大きな前進となる。 セキュリティ強化:BYO VNetによるネットワーク分離 エンタープライズ利用で特に注目されるのが、BYO VNet(Bring Your Own Virtual Network)への対応だ。自社のAzure仮想ネットワーク内にAgent Serviceを閉じ込めることで、パブリックインターネットへの露出を最小化できる。金融・医療・公共分野など、厳格なネットワーク分離要件を持つ業種にとって、導入の障壁が大きく下がることになる。 日本でも金融庁や経済産業省がAIシステムのセキュリティガイドラインを相次いで整備しており、プライベートネットワーク分離は実装要件として挙げられることが多い。このアップデートはその流れに直接応えるものだ。 MCPツール連携でエージェントの拡張性が向上 MCP(Model Context Protocol)ツールとの連携にも対応した。MCPはAnthropicが提案しAIコミュニティに広まりつつあるオープンなツール統合プロトコルで、外部サービスやデータソースとAIエージェントをシームレスに接続できる。Azure AI FoundryがMCPをサポートしたことで、Microsoft製品に限らず幅広いエコシステムとの統合が現実的になる。 Observabilityで本番運用の「見える化」を実現 AIエージェントの本番運用で長らく課題とされてきた可観測性についても、専用のObservability機能がGAとなった。エージェントの実行ログ、レイテンシ、エラー率、コスト追跡などをAzure Portalから一元管理できる。複数エージェントが協調して動作するマルチエージェント構成でもトレーシングが機能するため、障害発生時の原因特定が格段にしやすくなる。 Foundry Portalで開発体験を統合 Foundry Portalはエージェントの設計・テスト・デプロイ・監視をブラウザ上で完結させるUI統合環境だ。コードを書かずにエージェントのプロトタイピングができるノーコード的なワークフローと、SDKを使った本格開発の両方をサポートする。チーム内の非エンジニアメンバーがエージェントの動作を確認・評価するための窓口としても機能する。 エンタープライズAIエージェント開発の新局面 GPT-4やClaude、Geminiといった大規模言語モデルの能力が向上するにつれ、AIエージェントの活用範囲は急速に拡大している。一方で「PoC止まり」「本番移行できない」という声も多く聞かれた。今回のGA発表は、Azure AI Foundryがその壁を乗り越えるための基盤を整えたことを意味する。 MicrosoftのAzure AI Foundryは、OpenAIとの深い連携に加え、エンタープライズ向けの運用管理機能を積み上げてきた。今後は本番稼働事例の積み上げとともに、日本国内での採用事例も増えてくることが予想される。 元記事: Foundry Agent Service, Observability, and Foundry Portal Now Generally Available

March 26, 2026 · 1 min · 胡田昌彦

Microsoft 365、2026年7月から最大15%値上げ——E5は65ドル超、新セキュリティバンドルとTeams分離も

Microsoft 365が2026年7月から大幅値上げ——4年ぶりの価格改定 Microsoftは2026年3月24日、Microsoft 365の商用プランを同年7月1日より値上げすると正式発表した。2022年3月以来4年ぶりとなる大規模な価格改定で、主要エンタープライズプランが8〜15%引き上げられる。 値上げの詳細 今回の改定で最も影響が大きいのはMicrosoft 365 E5で、月額ユーザー単価が57ドルから約65.55ドル(約15%増)へ上昇する。E3は36ドルから39.60ドル(10%増)、Business Premiumは22ドルから24.64ドル(12%増)となる。 Microsoftは値上げの理由として、2022年以降に追加された1,400以上の新機能——Copilotを活用したAI機能の拡充、セキュリティ強化、コラボレーション改善——を挙げており、「消費者物価指数の上昇率よりも低い水準」と説明している。 日本の企業にとっては円安の影響もあり、円建てコストはさらに増加する可能性がある。国内では大手企業から中小企業まで幅広くMicrosoft 365を導入しているため、IT予算への影響は避けられないだろう。 新設「セキュリティ + Intune」バンドル 価格改定と同時に、Microsoft Security + IntuneバンドルがE3のアドオンとして提供開始される。このバンドルは以下の製品をセットにしたもの。 Microsoft Defender for Endpoint Microsoft Defender for Office 365 Microsoft Purview Information Protection Microsoft Intune(エンドポイント管理) これまでこれらの機能を一括して利用するにはE5へのアップグレードが必要だったが、新バンドルによりE3ユーザーでも高度なセキュリティスタックを利用できるようになる。業界アナリストの試算によれば月額12〜15ドル程度で提供される見込みで、組織全体をE5に移行するよりも30〜40%程度コストを抑えられる可能性がある。 TeamsをM365から切り離す新ライセンス体系 EUの規制当局からの圧力や企業からの要望を受け、MicrosoftはTeamsを一部エンタープライズシナリオにおいてMicrosoft 365から分離する新SKUを導入する。 Teams Enterprise:高度な会議機能、ウェビナー、管理ツール Teams Premium:AIによるインテリジェント要約、ミーティングコーチング、高度な分析 既存のMicrosoft 365サブスクリプション経由での利用は継続可能。Google WorkspaceなどのライバルSuiteを使いながらTeamsだけを活用したい企業向けの選択肢が増える形だ。 企業予算への影響 1,000ユーザー規模でE3を利用している組織の場合、10%の値上げで年間約43,200ドル(約650万円)の追加コストが発生する試算だ。E5ユーザーでは年間100,000ドル超の増加となる。 改定は7月1日から適用されるが、マルチイヤー契約を結んでいる企業は次回更新時まで現行価格が維持される。予算策定の見直しを迫られる企業は、契約更新時期の確認と早めの対応計画が求められる。 元記事: Microsoft 365 2026 Pricing Overhaul: July Price Hikes, New Security Bundles, and Teams Licensing Changes

March 26, 2026 · 1 min · 胡田昌彦

Microsoft 365 E7発表:10年ぶりの大型刷新、AIエージェント管理基盤「Agent 365」を統合

Microsoft 365 E7:10年ぶりの大型ライセンス刷新 Microsoftは2026年5月1日に「Microsoft 365 E7 Frontier Worker Suite」を提供開始すると発表した。これは2015年のMicrosoft 365 E5以来、最大規模のライセンス変更となる。価格はユーザーあたり月額99ドル。 E5を超える統合パッケージ E7はMicrosoft 365 E5、Microsoft 365 Copilot、そしてAgent 365の3製品を1つのライセンスに統合する。E5は現在の最上位ライセンスとして、Office各種ツール、高度なセキュリティ機能、Power BI Proを含んでいる。E7はそこにCopilotとAgent 365を加えたうえ、Microsoft Entra Suite、Defender、Intune、Purviewの高度なセキュリティ機能もバンドルされる。 Microsoftによると、有償のCopilot利用は前年比160%以上の成長を記録し、デイリーアクティブ利用は10倍に増加。複数のツールを個別購入するより、E7として一括導入するほうがコスト面でも有利になるとしている。 AnthropicとのAI共同開発「Copilot Cowork」 注目は、AnthropicのClaudeを活用して共同開発された新機能「Copilot Cowork」だ。長期的・複数ステップにわたる業務プロセスを自律的に処理する「エージェント型」アシスタントとして設計されている。 例えば「顧客ミーティングの準備をして」という一言のリクエストから、プレゼン資料の作成、財務データの収集、チームへのメール送信、準備時間のスケジューリングまでを一括して実行できる。現在は限定ユーザーでテスト中で、2026年3月にFrontierプログラム経由でリサーチプレビューとして公開予定だ。 またWord、Excel、PowerPoint、OutlookへのAIエージェント機能(旧称「Agent Mode」)のロールアウトも同月に予定されている。Copilot Chatでは現在もClaudeとOpenAIの最新モデルをFrontierプログラム経由で利用可能。 企業AIを一元管理する「Agent 365」が正式リリース Agent 365は2026年5月1日に一般提供開始となる(価格はユーザーあたり月額15ドル)。企業内で稼働するAIエージェントをIT・セキュリティ部門が一元的に把握・管理・統制するためのコントロールパネルとして機能する。 Microsoft自身も「Customer Zero」として社内で導入済みで、すでに50万以上のエージェントを把握。直近28日間で従業員向けに1日あたり6万5,000件以上のレスポンスを生成したという。プレビュー段階でもAgent 365 Registryには数千万件のエージェントが登録されており、企業規模でのAIエージェント管理の現実的な需要を裏付けている。 日本企業への影響 日本でのMicrosoft 365は多くの大企業・官公庁で標準基盤となっており、E3・E5ライセンスのユーザーにとってE7への移行は今後の重要な検討事項となる。特にAIエージェントの管理・統制という観点は、ガバナンスを重視する日本企業のニーズと合致する部分が大きい。正式リリースに向けた詳細な価格・移行条件の情報を注視したい。 元記事: Microsoft 365 E7 unveiled: biggest licensing change in ten years - Techzine Global

March 26, 2026 · 1 min · 胡田昌彦

OpenAI、10代向けAI安全ポリシーをOSSで公開——開発者が自社サービスに組み込み可能に

OpenAI、10代ユーザー保護のためのAI安全ポリシーをオープンソース公開 OpenAIは、10代のユーザーが利用するAIサービスをより安全に構築できるよう、プロンプトベースの安全ポリシーをオープンソースで公開した。このポリシーは gpt-oss-safeguard モデルを通じて提供され、開発者が自社のAIアプリケーションに組み込むことができる。 何が公開されたのか OpenAIが今回リリースしたのは、未成年者(主に10代)向けに特有のリスクを軽減するためのプロンプトテンプレートおよびガードレール機能だ。gpt-oss-safeguard は、年齢層に応じた有害コンテンツのフィルタリングや、不適切な会話の誘導を検出・遮断する仕組みを提供する。 これまでOpenAI自身のサービス(ChatGPTなど)では年齢制限や安全フィルターが実装されていたが、サードパーティ開発者が同等の保護機能を独自サービスに実装するのは容易ではなかった。今回の公開により、OpenAI APIを利用するアプリ開発者も同様の安全機能を手軽に導入できるようになる。 背景:未成年のAI利用リスク 生成AIの急速な普及に伴い、10代の若者がAIチャットボットや生成サービスを日常的に利用するケースが世界中で増加している。日本でも学校教育へのAI導入が進む中、有害コンテンツへの誘導、過度な感情依存、個人情報の無意識な開示といったリスクへの懸念が高まっている。 米国では連邦・州レベルで未成年のオンラインサービス利用規制が強化されており、OpenAIをはじめとするAI企業にも社会的責任が強く求められている状況だ。 開発者への影響 gpt-oss-safeguard をシステムプロンプトに組み込むことで、以下のような制御が可能になる: 年齢に不適切なコンテンツ(暴力・性的表現・薬物関連など)の生成抑制 自傷・メンタルヘルス関連の話題に対するより慎重な応答 個人情報収集を促すような会話パターンの検出 ポリシーがオープンソースで提供されることで、開発者はコードを検証・カスタマイズすることも可能だ。透明性を高めることで、外部監査や規制対応にも活用できる。 今後の展望 OpenAIはこのリリースを「開発者コミュニティと共に、より安全なAI体験を構築するための第一歩」と位置づけている。教育テック企業や子ども向けサービスを手がける開発者にとって、このガードレールの活用は今後の標準的な実装手法となる可能性が高い。 AIの恩恵を若い世代にも届けながら、リスクを最小化する——そのバランスを技術で実現しようとするOpenAIのアプローチは、業界全体の動向を左右するものとして注目される。 元記事: Helping developers build safer AI experiences for teens

March 25, 2026 · 1 min · 胡田昌彦

Databricks、AI セキュリティ製品「Lakewatch」発表——2社買収でAnthropicのClaude活用SIEMを構築

Databricks、AI駆動のセキュリティ製品「Lakewatch」を発表 クラウドデータ分析プラットフォームで知られるDatabricksが、新たなセキュリティ製品「Lakewatch」を発表した。同製品は同社のデータ格納能力を活かしつつ、脅威の検知・調査といった従来のSIEM(Security Information and Event Management:セキュリティ情報およびイベント管理)機能を提供するもので、AnthropicのAIモデル「Claude」を搭載したAIエージェントによって処理を高度化している点が特徴だ。 2スタートアップを相次いで買収 Lakewatchの基盤を支えるため、Databricksは2社のスタートアップを買収した。 1つ目はAntimatter。セキュリティ研究者のAndrew Krioukov氏が創業したスタートアップで、2022年にNew Enterprise Associates主導で約1,200万ドルを調達している。Databricksによる買収は昨年すでに完了していたが、今回初めて公式発表された。Antimatterは企業がエージェントを安全に展開しながら機密データを保護できる「データコントロールプレーン」技術を手がけており、2024年のRSA Innovation Sandbox Contestでもその技術が注目を集めた。 2つ目はSiftD.ai。こちらは今回の発表のわずか数週間前に交渉が始まり、月曜日に買収が完了したばかりという電撃的なディールだ。SiftD.aiは2025年11月に製品をローンチしたばかりの新興企業で、人間とAIエージェントが協働できるインタラクティブなノートブック(JupyterノートブックのようなUI)を開発していた。同社の共同創業者でCEOのSteve Zhang氏は、ログ管理・分析ツールで有名なSplunkで長年チーフサイエンティストを務め、「Search Processing Language(SPL)」を開発した人物として業界に知られる。 買収金額はいずれも非公開。Antimatterは50名未満、SiftD.aiは数名という小規模なチームだったが、両社の従業員はDatabricksに合流している。KrioukovはすでにDatabricksに入社しており、Lakewatchチームを率いている。 50億ドル調達を背景に積極買収戦略を継続 Databricksは直近で50億ドル(約7,500億円)の資金調達を完了しており、豊富なキャッシュを背景にスタートアップの買収を加速させている。同社広報は「私たちは常に次の動きを見据えている。市場の先を行き、顧客のニーズのギャップを埋めることが目標だ」とコメントしており、今後も積極的な買収姿勢を維持する方針を示している。 日本市場への影響 国内企業においてもクラウドデータ基盤の整備が進む中、SIEMとAIエージェントを組み合わせたセキュリティ製品への需要は高まっている。Databricksはすでに日本でも多くの企業に導入されており、Lakewatchが国内展開された際には、セキュリティオペレーションセンター(SOC)業務の自動化・効率化における有力な選択肢となる可能性がある。 元記事: Databricks bought two startups to underpin its new AI security product

March 25, 2026 · 1 min · 胡田昌彦

ChatGPTとGeminiがAIショッピング覇権争い——GapがGeminiで購入可能に、ChatGPTは商品比較UIを刷新

AIチャットボットが「購買体験」の新戦場に GoogleとOpenAIの両社が、チャットAIをショッピングの起点にする機能を相次いで強化している。AIを介した購買体験をめぐる競争が急速に白熱してきた。 GeminiがGap Inc.と提携——チャットから直接購入が可能に Googleは米アパレル大手**Gap Inc.**との提携を発表し、GeminiのAIアシスタントを通じてGap・Old Navy・Banana Republic・Athletaの各ブランド商品をそのまま購入できる機能を提供する。ユーザーがGeminiに「コーディネートを教えて」などと質問すると、これらブランドの商品が提案され、チャット画面を離れることなく購入まで完了できる。 決済にはGoogle Payが使われ、配送はGap側が担当する仕組みだ。この購買体験を支えるのが、Googleが策定したUniversal Commerce Protocol(UCP)と呼ばれる標準規格。AIアシスタントが小売業者のサイト上で購買操作を行うための共通仕様で、すでにWalmartやTargetもこの仕組みで参加している。日本でも普及が進む「スーパーアプリ」的な発想に近く、チャットと決済の一体化という方向性は今後の主流になる可能性がある。 ChatGPTは「比較購入UI」を刷新——組み込みチェックアウトは撤退 一方のOpenAIは、ChatGPTの商品表示体験を大幅に改善した。複数の商品をサイドバイサイドで視覚的に比較できるようになり、価格・レビュー・スペックを一覧で確認できる。あわせて検索の速度・関連性・カバー率も向上し、より最新の商品情報が表示されるようになった。この機能は今週中にChatGPTの無料・Go・Plus・Proプランへ順次展開される予定だ。 ただし、OpenAIはチャット内で直接購入できる組み込みチェックアウト機能を事実上撤退させた。『The Information』や『CNBC』の報道によれば、今後はWalmartなどの小売業者がChatGPT内に独自アプリを展開する形に移行する方針だという。Walmartの幹部も『Wired』に対し、ChatGPTの組み込みチェックアウト経由の売上は「期待外れだった」と明かしており、AI直販モデルの難しさが浮き彫りになっている。 「AIで買い物したい」ニーズはまだ模索中 AIを通じた商品発見・購買は、検索エンジン依存から脱却したい小売業者にとっての新たなチャネルとして注目を集めている。しかし消費者がAI経由の購買体験を本当に望んでいるかどうかは、まだ答えが出ていない。OpenAIの撤退判断は、技術的な可能性と実際のユーザー行動のギャップを示す象徴的な事例と言えるだろう。 GoogleとOpenAIはそれぞれ異なるアプローチで、AIを「お買い物の相棒」にしようとしている。どちらの戦略が消費者に受け入れられるか、2026年のEC市場から目が離せない。 元記事: ChatGPT and Gemini are fighting to be the AI bot that sells you stuff

March 25, 2026 · 1 min · 胡田昌彦

Armが初の自社製CPU「Arm AGI CPU」を発表——Meta社のAIデータセンターに今年後半導入へ

Armが数十年の歴史で初の自社製CPU——MetaのAIデータセンターへ今年導入 英国の半導体設計企業Armが、同社史上初となる自社製CPU「Arm AGI CPU」を発表した。これまでArmは自社のチップ設計をライセンスとして他社に提供するビジネスモデルを中心に成長してきたが、今回は自社でチップを製造・販売するという大きな方向転換となる。 AIインフェレンス向けに特化した設計 Arm AGI CPUは、AIエージェントなどのクラウド処理——いわゆるインフェレンス(推論処理)——に特化して設計されている。最大の特徴は1CPUあたり最大136コアを搭載でき、空冷サーバーラック1台に64基のCPUを搭載できる点だ。 Armによると、従来のx86 CPUと比較してワットあたりの性能が2倍となり、メモリボトルネックの軽減にも優れているという。ベースとなるプラットフォームはAWS Graviton、Nvidia Vera、Microsoft向けなどですでに実績のある「Neoverseプラットフォーム」を採用している。 Metaが筆頭パートナー兼共同開発者に 最初の顧客はMetaだ。Metaは「筆頭パートナー兼共同開発者」として、Armとデータセンター向けCPUの複数世代にわたる開発を進めると表明した。MetaはNvidiaやAMDなどのハードウェアと組み合わせてこのCPUを活用する計画を持つ。 Metaはこれまで独自のAIチップ開発に苦戦してきたと報じられており、Armとの協業は同社のAIインフラ強化の重要な一手となりそうだ。 有力企業から相次ぐ支持表明 今回の発表に合わせて、Amazon AWS、Microsoft、Google、Marvell、Nvidia、Samsungなど名だたる企業が祝辞を寄せた。一方、昨秋のライセンス契約をめぐる訴訟でArmとの法廷闘争に「完全勝利」を宣言したQualcommはリストに含まれていない。 また、Cerebras、Cloudflare、F5、OpenAI、SK Telecomなども導入予定企業として名を連ねている。ArmのクラウドAI部門責任者Mohamed Awad氏はCNBCの取材に対し、「自社プロセッサを自前で開発できない企業向けの有力な選択肢になることを目指している」と語っている。 SoftBank傘下のArmが迎える新時代 現在SoftBankが所有するArmにとって、今回の自社CPUビジネスへの参入はビジネスモデルの大きな転換点だ。契約の金額的条件や、Metaが調達するチップ数については非公開とされている。 x86(Intel・AMD)優位が続いてきたデータセンター市場において、省電力性能に優れたArmアーキテクチャのCPUが本格参入することで、AIインフラの競争構図はさらに激しくなりそうだ。 元記事: Arm’s first CPU ever will plug into Meta’s AI datacenters later this year

March 25, 2026 · 1 min · 胡田昌彦

AIで生産性が100倍?PyPIデータが示す「AIアプリはどこにある」問題の実態

AIで生産性爆上がりのはずが……PyPIデータが語る現実 「バイブコーディング(vibe coding)」やAIエージェントツールの愛好者たちは、「生産性が2倍、10倍、いや100倍になった!」と声高に主張する。実際、ある開発者はAIを活用してWebブラウザをゼロからフルスクラッチで構築してしまったという話まで出てきた。 しかし、懐疑的な視点を持つ人々はこう問いかける。「では、そのAIアプリとやらはどこにある?」 開発者が保守的に見ても2倍生産的になったとするなら、作られるソフトウェアの量も2倍になっているはずだ。その「AI効果」は一体どこで確認できるのか。 PyPIデータで検証する Answer.AIのAlexis Gallagher氏とRens Dimmendaal氏は、この問いに答えるためPythonの中央パッケージリポジトリ「PyPI(Python Package Index)」のデータを分析した。PyPIは大規模かつ公開データであり、ソフトウェア生産量の変化を観測するのに適した指標と言える。 分析結果は明確だ。ChatGPT登場(2022年11月)前後でパッケージ総数の増加トレンドに明確な変化は見られない。月次の新規パッケージ数にいくつかのスパイクは存在するが、これらはスパムやマルウェアの氾濫によるものであり、genuine(本物の)パッケージ創出ではない。 「本物の」パッケージで見ると? 単なるパッケージ数では不十分という批判も当然ある。そこで分析チームは別の指標を採用した。2025年12月時点でダウンロード数上位1万5000パッケージを対象に、誕生年ごとのコホートに分け、各コホートの「リリース頻度(update releases)」の中央値を時系列で追跡した。 結果は「まあ……そうかも?」というものだった。 ChatGPT登場後に生まれたパッケージは、最初の1年間のリリース頻度が年13回と、2014年生まれ(年6回)と比較して確かに高い。しかし、この上昇トレンドはChatGPT登場よりも前の2019年頃から始まっており、GitHub ActionsなどのCI(継続的インテグレーション)ツールの普及と時期が一致する。AIの恩恵と断言するには根拠が弱い。 さらに、「パッケージが古くなるほどリリース頻度が下がる」傾向はAI時代になっても変わっていない。AIが長期的なメンテナンスを活性化させているという証拠は見当たらない。 AIパッケージに限れば話は別 興味深いのは、パッケージをAI関連かどうかで分類した場合だ。AIに関連するパッケージには明確な「AI効果」が現れているのに対し、そうでないパッケージにはほとんど変化がない。 これは何を意味するのか。AIはAIそのものを開発するための生産性は押し上げているが、ソフトウェア開発全体のパラダイムシフトにはまだ至っていない可能性が高い。 日本の開発者へのインプリケーション 日本国内でもAIコーディングツール(GitHub Copilot、Cursor等)の活用が急速に広まっている。個々の開発者レベルでの体感的な生産性向上は確かに報告されているが、それが「作られるソフトウェアの総量」という巨視的な指標に反映されるまでには時間がかかるのかもしれない。あるいは、AIによる生産性向上は新たなソフトウェア創出よりも、既存システムの改善・技術的負債の解消に充てられているという解釈も成り立つ。 AIの生産性革命は本当に起きているのか。データが追いつくまで、議論はまだ続きそうだ。 元記事: So where are all the AI apps?

March 25, 2026 · 1 min · 胡田昌彦

AI・テクノロジーの情報を発信しています

YouTube

AI・テクノロジーの最新トレンドを動画で配信中

note

技術コラム・深掘り記事を公開中