Claude Codeチートシート完全版 — キーボードショートカットからMCPサーバー設定まで網羅

Claude Code使いこなしのすべてが1ページに Anthropicが提供するターミナル統合型AIコーディングアシスタント「Claude Code」の全機能を網羅したチートシートが公開され、Hacker Newsで181ポイントを獲得するなど開発者コミュニティで大きな反響を呼んでいる。 キーボードショートカット Claude Codeには多くのショートカットが用意されている。基本操作として Ctrl+C で入力/生成のキャンセル、Ctrl+L で画面クリア、Ctrl+R で履歴の逆検索が使える。ユニークなのは Ctrl+B でタスクをバックグラウンド実行できる点で、重い処理を走らせながら別の指示を出すことが可能だ。Esc キーを2回押すと直前の操作を取り消す「Rewind」機能も便利だろう。 モード切り替えでは Shift+Tab でパーミッションモードをサイクル切り替え、Alt+T でThinking(推論)モードのオン/オフを即座に切り替えられる。 スラッシュコマンド / で始まるスラッシュコマンドも充実している。コンテキスト管理の /compact [focus] は長い会話を圧縮して重要な文脈だけを保持するもので、長時間の開発セッションで重宝する。新機能として追加された /effort [low|med|high] はモデルの推論深度を手動で制御でき、単純なタスクにOpusを全力投球させる無駄を省ける。 /btw <質問> は現在のコンテキストを消費せずにサイドクエスチョンを投げられる機能で、コストを抑えながら気になる点を確認できる実用的なコマンドだ。 MCPサーバー連携 Model Context Protocol(MCP)サーバーの追加は --transport http(リモートHTTP、推奨)、--transport stdio(ローカルプロセス)、--transport sse(リモートSSE)の3方式に対応。スコープはローカル・プロジェクト・ユーザーの3段階で管理でき、チームで共有する設定は .mcp.json にコミットして全員が同じ環境で使えるようにすることが推奨されている。 また新機能「Elicitation」により、MCPサーバーがタスク実行中にユーザーへ入力を要求できるようになり、よりインタラクティブなワークフロー構築が可能になった。 メモリとCLAUDE.md Claude Codeのメモリ機構は./CLAUDE.md(プロジェクト共有)、~/.claude/CLAUDE.md(個人全プロジェクト共通)、/etc/claude-code/(組織全体管理)の3層構造になっている。Auto Memory機能では ~/.claude/projects/<プロジェクト>/memory/ 配下に MEMORY.md とトピック別ファイルが自動管理され、セッションをまたいで文脈が継続する。 ワークフローのヒント 並行開発に便利なGit Worktrees統合では --worktree name オプションで機能ごとに隔離されたブランチを作成でき、複数のエージェントが干渉なく同時作業できる。コンテキスト上限(現在Opus 4.6でMaxプラン以上なら100万トークン)に近づくと自動コンパクトが発動し、CLAUDE.md の内容はコンパクション後も保持される仕様だ。 ヘッドレス/SDK利用では claude -p "クエリ" で非インタラクティブ実行が可能で、--max-budget-usd 5 でコストキャップを設定できる点はCI/CDパイプラインへの組み込みで特に有用だ。 Claude Codeは急速に機能が拡充されており、このチートシートは定期的に更新されているとのこと。普段使いのショートカットから高度なMCP連携まで、改めて全機能を把握し直すよい機会となりそうだ。 元記事: Claude Code Cheat Sheet ...

March 24, 2026 · 1 min · 胡田昌彦

マツダが情報漏洩を公表——従業員・取引先692件のデータに不正アクセス

マツダ、セキュリティインシデントを公表——692件の個人情報が漏洩の可能性 マツダ株式会社は2026年3月23日、昨年12月に検知されたセキュリティインシデントにより、従業員および取引先パートナーの情報が外部に漏洩した可能性があると発表した。 攻撃の概要 今回の不正アクセスは、タイから調達した部品の倉庫管理に使用しているシステムの脆弱性を突いたものとされている。マツダは次のように述べている。 「当社は、タイから調達した部品の倉庫業務に使用している管理システムに対し、外部からの不正アクセスの痕跡を確認しました」 漏洩した可能性があるデータの件数は692件にとどまり、顧客情報は一切含まれていないと説明している。 漏洩した可能性のある情報 調査の結果、以下の情報が外部に露出した可能性があることが判明した。 ユーザーID 氏名 メールアドレス 所属会社名 取引先ID 現時点では、これらの情報が実際に悪用されたという証跡は確認されていない。ただしマツダは、フィッシング攻撃や詐欺のリスクが高いとして、影響を受けた可能性のある個人に対し警戒を続けるよう呼びかけている。 事後対応 マツダは発覚後、日本の個人情報保護委員会(内閣府の外局)への報告を迅速に行うとともに、外部の専門機関と連携して調査を実施。さらに以下のセキュリティ強化措置を講じたとしている。 インターネットへの露出の低減 セキュリティパッチの適用 不審な活動に対する監視強化 アクセスポリシーの厳格化 ランサムウェアグループとの関連は? 注目すべき背景として、2025年11月にランサムウェアグループ「Clop」が、Mazda.comおよびMazdaUSA.comを情報漏洩サイトに掲載し、マツダ本体と米国子会社への侵害を主張していた事実がある。当時マツダは侵害を公式に認めていなかったが、今回の公表との関連性については現時点で明らかにされていない。また、本稿執筆時点でいかなるランサムウェアグループも今回の攻撃を公式に犯行声明として表明していない。 日本企業へのサイバー攻撃が続く トヨタ、ホンダなど日本の自動車メーカーを標的としたサイバー攻撃は近年増加傾向にあり、特にサプライチェーン(部品調達・倉庫管理等)を経由した侵害が相次いでいる。マツダは国内外で年間約120万台を生産し、売上高は約240億ドル(約3.5兆円)規模の大手メーカー。今回の事案は規模こそ小さいが、グローバルなサプライチェーンのセキュリティ管理の重要性を改めて浮き彫りにした。 元記事: Mazda discloses security breach exposing employee and partner data

March 24, 2026 · 1 min · 胡田昌彦

ChatGPTに「ライブラリ」機能が登場——アップロードしたファイルをクラウドに永続保存

OpenAIは2026年3月23日、ChatGPTに新機能「Library(ライブラリ)」のロールアウトを開始した。ユーザーがチャットにアップロードしたファイルや画像をOpenAIのクラウドストレージに永続保存し、将来の会話でも再利用できるようにする機能だ。 対象ユーザーと提供地域 LibraryはChatGPTのPlus・Pro・Businessプラン向けに提供される。世界規模で順次展開されているが、欧州経済領域(EEA)・スイス・英国は対象外となっている。GDPRをはじめとするEUのデータ保護規制への対応が理由とみられる。日本ユーザーは対象地域に含まれており、Webブラウザでリロードするだけでサイドバーに「Library」が自動表示される。 何が保存されるのか ChatGPTは従来から、チャットにアップロードされたファイルをそのセッション内で処理していたが、これまではチャットを削除するとファイルも失われるのが一般的な認識だった。新機能では動作が大きく変わる。 OpenAIの公式説明によると、「ChatGPTはアップロードされたファイルや生成されたファイル(ドキュメント・スプレッドシート・プレゼンテーション・画像など)を、専用のセキュアな場所に自動保存し、後からアクセスできるようにする」とのことだ。 注目すべきは、チャットを削除してもLibraryのファイルは削除されない点だ。ファイルは手動で削除するまでアカウントに紐づいて保持される。なお、AI生成画像については引き続き「Imagesタブ」に表示され、Libraryとは別管理となる。 Libraryからファイルを利用する方法 保存済みのファイルをチャットで使うには、以下の手順を踏む。 コンポーザーのメニュー(添付ボタン)を開く 「Add from library」を選択 使用したいファイルを選ぶ ファイルの削除とデータ保持ポリシー ファイルを削除したい場合は「Library」タブでファイルを選択し、「Delete」またはゴミ箱アイコンをクリックすれば削除できる。ただし、削除後もOpenAIのサーバーからデータが完全に消去されるまでに最大30日かかる。この猶予期間の理由についてOpenAIは明示していないが、法的要件(訴訟保全や監査対応など)への配慮とみられる。 プライバシーへの注意点 日本のユーザーにとって気になるのは、ビジネス文書や個人情報を含むファイルがOpenAIのクラウドに長期保存されることだ。機密性の高い資料を扱う際は、アップロード前に社内のAI利用ポリシーや情報セキュリティ規程を確認することを強く推奨する。不要なファイルはこまめにLibraryから削除する習慣をつけておきたい。 利便性とデータ管理のバランスを意識しながら、新機能を活用していくことが求められる。 元記事: OpenAI rolls out ChatGPT Library to store your personal files

March 24, 2026 · 1 min · 胡田昌彦

DeepSeek V4、テキスト・画像・動画を統合するマルチモーダルAIとして間もなくリリースか——オープンモデル最強候補

DeepSeek V4、マルチモーダルAIとして間もなく登場か 中国のAI企業DeepSeekが開発する次世代モデル「V4」が、テキスト・画像・動画生成を単一アーキテクチャに統合したマルチモーダルAIシステムとして登場する見通しだ。フィナンシャル・タイムズなど複数の信頼性の高い情報源がその詳細を伝えている。 コーディング特化からマルチモーダルへ方針転換 2026年2月に明らかになった当初の情報では、V4はコーディング性能に特化したモデルとされていた。700億パラメータ超のアーキテクチャ、SWE-benchでの記録更新を狙った設計、Engramメモリによる最大100万トークンのコンテキストウィンドウ——これらが主な特徴として語られていた。 しかし3月に入って状況は大きく変わった。V4は今やコーディング専用モデルではなく、テキスト・画像・動画をひとつのモデルで生成できる統合マルチモーダルシステムとして位置づけられている。これはOpenAIの「GPT-4o」やGoogleの「Gemini 3」シリーズと真っ向から競合する設計だ。 オープンソースで公開されれば業界に激震 DeepSeek V4が注目される最大の理由は、MIT または Apache 2.0 ライセンスでのオープンウェイト公開が見込まれている点だ。もし実現すれば、画像・動画生成まで含む史上最強クラスのオープンソースマルチモーダル基盤モデルとなる。 OpenAIの「Sora」、GoogleのVeo 3、Runwayの「Gen-3」といった動画生成AIはいずれもクローズドなプロプライエタリシステムだ。これらに対抗できるオープンウェイトの選択肢が登場すれば、研究者や開発者はクローズドAPIへの依存なしにマルチモーダルアプリケーションを構築できるようになる。 統合アーキテクチャの技術的優位性 DeepSeek V4のマルチモーダル設計は、テキスト・画像・動画を別々のモデルに分離せず、単一フレームワーク内で統合的に扱う点が特徴だ。Gemini 3 Proなどが各モダリティに個別パイプラインを持つのとは異なるアプローチを採る。 この統合型設計の利点は「一貫性(コヒーレンス)」にある。テキストに添える画像を生成する際も、生成した動画にナレーションをつける際も、各モダリティが独立して動くのではなく共有された意味理解をもとに連携して動作する。 基盤技術として、2026年1月に発表されたアーキテクチャ革新——静的知識をシステムDRAMにオフロードしてスループット低下を3%未満に抑える「Engramメモリ」と、兆パラメータ規模の学習安定化を図る「Manifold制約ハイパーコネクション」——が引き続き採用される見込みだ。 ソフトローンチ戦略の可能性も 3月9日には「V4 Lite」が静かにリリースされたとの情報もあり、段階的なロールアウト戦略が取られている可能性がある。内部ベンチマークでは長文コーディングタスクでClaudeやChatGPT(GPT-4系)を上回る結果が出ているとも報告されているが、公式確認はまだ取れていない。 正式リリースの時期や最終的なスペックについては、引き続き動向を注視する必要がある。 元記事: DeepSeek V4 Multimodal Launch Imminent: Text, Image, and Video in One Open Model

March 24, 2026 · 1 min · 胡田昌彦

OpenAI、エンタープライズ向けAIエージェント基盤「Frontier」を正式発表——企業のAI業務統合を加速

OpenAI、企業向けAIエージェント基盤「Frontier」を正式発表 OpenAIは、エンタープライズ(大企業)向けに特化したAIエージェント構築・展開・管理プラットフォーム「OpenAI Frontier」を正式発表した。同プラットフォームは、企業が実務環境で活用できる独自のAIエージェントを開発・運用するための包括的な基盤を提供するもので、AIの業務統合を次のステージへと引き上げることを狙いとしている。 AIエージェント活用の「基盤」を企業に提供 これまで企業がAIを業務に組み込む場合、個別のAPIやモデルを組み合わせて独自システムを構築する必要があり、技術的なハードルが高かった。OpenAI Frontierは、そのような課題に対応するべく設計されており、エージェントの構築(Build)・展開(Deploy)・管理(Manage)の3フェーズを一貫してサポートするという。 企業は同プラットフォームを通じて、カスタマーサポートの自動化、社内ナレッジベースとの連携、業務フローの自律的な実行といった高度なAIエージェントを、自社のセキュリティポリシーやコンプライアンス要件に沿った形で構築・運用できるようになる。 日本企業への影響 日本においても、製造業・金融・医療・官公庁などでAI活用が急速に進んでいるが、エンタープライズ要件(セキュリティ、監査ログ、アクセス制御など)を満たす形でのAI導入はまだ発展途上だ。OpenAI Frontierのような管理基盤が整備されることで、企業のIT部門がより安心して本格的なAIエージェント導入に踏み切れる環境が整いつつある。 また、MicrosoftはOpenAIとの深い提携関係にあり、Azure OpenAI Serviceを通じた日本市場への展開も注目される。Frontierの機能がAzureエコシステムと統合されれば、日本企業にとってのアクセスしやすさはさらに向上すると見られる。 競合各社との競争激化 エンタープライズ向けAIエージェント基盤をめぐっては、GoogleのVertex AI AgentやAmazonのBedrock Agentsなど、主要クラウドベンダーも積極的に展開を進めている。OpenAIがFrontierとして独自プラットフォームを打ち出すことで、モデルプロバイダーとしての立場を超え、エンタープライズAI基盤のプレイヤーとしての地位を確立しようとする戦略的な意図が読み取れる。 AIエージェントが「試験的な導入フェーズ」から「業務の中核を担う存在」へと移行するなか、OpenAI Frontierはその転換点を象徴するプロダクトといえそうだ。今後の機能拡充や価格体系の詳細発表が注目される。 元記事: Introducing OpenAI Frontier

March 24, 2026 · 1 min · 胡田昌彦

OpenAI、GPT-5ベースのセキュリティAIエージェント「Aardvark」発表——脆弱性調査を自律実行

OpenAI、自律型セキュリティAIエージェント「Aardvark」を発表 OpenAIは、セキュリティ調査に特化したAIエージェント「Aardvark」(現在は「Codex Security」に改称)を発表した。GPT-5を基盤とし、脆弱性の発見から調査まで自律的に実行できるエージェントで、ChatGPT Enterprise・Business・Edu向けに研究プレビューとして公開されている。 セキュリティ分野へのAIエージェント進出 Aardvarkは、人間のセキュリティ研究者が行うような脆弱性調査プロセスを自律的にこなすことを目指して設計されている。コードの静的解析にとどまらず、実際の脆弱性パターンを追跡・分析し、潜在的なリスクを特定する能力を持つとされる。 AIエージェント(AI Agent)とは、与えられた目標に向けて自律的に計画・実行・判断を繰り返すAIシステムのことだ。従来のAIアシスタントが「質問に答える」受動的な役割に留まるのに対し、エージェントは自ら行動を起こし、複数ステップのタスクを完遂できる点が大きく異なる。 企業セキュリティチームへの実用価値 セキュリティエンジニアの慢性的な人材不足が続く現在、Aardvarkのようなエージェントは組織のセキュリティ態勢強化に大きく貢献する可能性がある。脆弱性スキャンやペネトレーションテスト(侵入テスト)の一部を自動化することで、人間の専門家はより高度な判断が求められる作業に集中できるようになる。 日本でも、経済産業省や内閣サイバーセキュリティセンター(NISC)がサイバーセキュリティ人材育成を急務と位置付けている中、AI支援によるセキュリティ自動化への関心は高まりつつある。 「研究プレビュー」としての慎重なアプローチ OpenAIが本ツールを「研究プレビュー」として限定公開している点は注目に値する。攻撃的なセキュリティ手法にも応用できるデュアルユース(二重用途)技術であるため、悪用リスクへの配慮が伺える。エンタープライズ契約ユーザーに対象を絞ることで、利用者の管理とフィードバック収集を慎重に進める方針とみられる。 AIエージェント時代のセキュリティ GitHubのCopilot、GoogleのProject Marinerなど、コーディング支援を超えた自律型AIエージェントの登場が相次いでいる。Aardvarkはその流れをセキュリティ領域に持ち込んだ先駆的な事例であり、AIが「使うツール」から「自ら動くパートナー」へと進化する転換点を象徴している。 OpenAIは今後、フィードバックをもとに機能拡充を進め、より広いユーザー層への展開を検討していると見られる。 元記事: Introducing Aardvark: OpenAI’s agentic security researcher

March 24, 2026 · 1 min · 胡田昌彦

ChatGPT無料ユーザーが2026年3月に実際に使えるモデルは何か——GPT-5.4の誤解を整理する

「GPT-5.4が無料で使える」は本当か? 公式ドキュメントから読み解く実態 2026年3月、OpenAIのモデルラインナップに「GPT-5.4」が登場したことで、「無料ユーザーも最新モデルが使えるようになった」という期待が広がっている。しかし公式ドキュメントを丁寧に読み解くと、実態はやや異なる。 無料プランで明確に使えるのはGPT-5.3 OpenAIのヘルプセンターが2026年3月時点で無料プランについて明示しているのは、GPT-5.3へのアクセスだ。具体的なルールも示されており、無料アカウントは5時間ごとに最大10メッセージをGPT-5.3で送信できる。上限を超えると、より軽量な「miniモデル」に自動切り替えとなり、制限がリセットされるまでその状態が続く。 この仕様が重要なのは、「GPT-5.4が存在する」という事実と「無料ユーザーがGPT-5.4を使える」という話が、まったく別の話だからだ。ChatGPTのプラットフォーム上にGPT-5.4が存在することは確かだが、無料プランで明文化されているモデルはあくまでGPT-5.3にとどまる。 GPT-5.4は有料プラン向け OpenAIの料金体系では、モデルの利用可能範囲が明確に区分されている。 モデル 無料 有料(一般) 上位プラン(Pro等) GPT-5.3 ◯(10回/5時間) ◯ ◯ GPT-5.4 Thinking ✗ ◯(モデル選択可) ◯ GPT-5.4 Pro ✗ 一部✗ ◯ GPT-5.4 Proについては、無料プランのみならず一部の低価格有料プランでも利用不可とされており、ProプランやそれEに準ずる上位プランが対象となっている。 なぜ混乱が生まれるのか 混乱の原因のひとつは、OpenAIのモデル命名体系の複雑さだ。GPT-5.3、GPT-5.4、GPT-5.4 Thinking、GPT-5.4 Pro——これらは似た名前を持ちながら、それぞれ異なる機能・価格帯に対応している。加えて、旧来のGPT-5.1系モデルが順次廃止されていく流れの中で、ユーザーが「最新モデルに移行した=無料で使える」と誤解しやすい状況が生まれている。 OpenAIが「GPT-5.4が存在する」と公式に認めている一方で、無料ユーザー向けの明確なドキュメントはGPT-5.3を中心に記述されている。GPT-5.4 Thinkingが内部的なルーティングとして無料ユーザーに一部適用されているかどうかは、現時点の公式ドキュメントからは確認できない。 日本のユーザーへの示唆 日本でもChatGPTの無料プランを活用するユーザーは多い。「最新モデルが無料になった」という情報をSNSやメディアで目にする機会も増えているが、実際には5時間に10回というGPT-5.3の制限が基本となる。より高度な推論機能(Thinking系)や高性能なPro版を日常的に活用したい場合は、有料プランへの移行を検討する必要がある。 AIツールの「無料で使える範囲」は、発表内容をそのまま受け取るのではなく、公式の料金・制限ドキュメントを確認する習慣が重要だ。 元記事: ChatGPT 5.4 free in March 2026: what free users actually get, what is not included

March 24, 2026 · 1 min · 胡田昌彦

小米がGPT-5.2に挑む1兆パラメータAI「MiMo-V2-Pro」を無料公開——コストは圧倒的に低く、性能は最前線級

スマホメーカーがAI最前線へ——小米「MiMo-V2-Pro」の衝撃 世界第3位のスマートフォンメーカーであり、電気自動車(EV)「SU7」「YU7」を展開する小米(シャオミ)が、生成AI最前線に本格参入した。同社が発表したMiMo-V2-Proは、総パラメータ数1兆(1T)を持つ大規模言語モデル(LLM)だが、その設計思想はチャット向け汎用モデルではなく「AIエージェントの頭脳」として最適化されている点が異色だ。 DeepSeek R1の立役者が率いる開発チーム 開発を主導するのは、DeepSeekの「R1」プロジェクトで中心的な役割を担ったFuli Luo氏。同氏は本モデルを「フロンティアへの静かな奇襲」と表現しており、純粋な会話ベンチマークではなく、ターミナル操作・コード実行・ツール連携といった「行動空間(Action Space)」での優位性を競争軸に据えている。 この方向性は小米のハードウェア事業と無関係ではない。IoTデバイスやEVで培ったリアルタイム判断・制御のノウハウを、デジタル環境全般に応用する試みとして位置付けられている。 MoEで1兆パラメータの「推論コスト問題」を解決 MiMo-V2-Proの技術的な肝はスパースなMixture-of-Experts(MoE)アーキテクチャだ。総パラメータは1兆だが、1回の推論(フォワードパス)で実際に動くのは約420億(42B)パラメータのみ。これにより、超大規模モデルの表現力を持ちながら、計算コストは40Bクラスに抑えられる。 OpenRouter経由のAPIコストは256Kトークンの範囲内で現在無料公開されており、GPT-5.2やClaude Opus 4.6と同等の性能をはるかに低コストで利用できる点が実務家には刺さる。 100万トークンのコンテキストを支える「ハイブリッドアテンション」 長大なコンテキスト処理にも工夫がある。標準的なTransformerアーキテクチャでは、コンテキスト長が伸びるにつれ計算量が二乗的に増加するという問題がある。MiMo-V2-Proは7:1のハイブリッドアテンション比率(前世代MiMo-V2-Flashの5:1から強化)を採用し、入力の約85%を「構造的把握」に、残り約15%を「精密な推論」に振り分けることで、最大100万トークンのコンテキストウィンドウを実現している。 これはログの蓄積・計画・状態更新など長大な情報系列を処理するエージェントワークフローに直結する特性だ。 さらにMulti-Token Prediction(MTP)レイヤーにより、1トークンずつの逐次生成を超えた複数トークンの同時予測が可能になり、エンタープライズ用途での応答速度向上にも貢献する。 日本市場へのインパクト 国内ではほぼ未報道のMiMo-V2-Proだが、エージェント型AI開発者や企業のAI基盤担当者にとって見逃せない存在だ。コード・ターミナル・複雑なオーケストレーション基盤を統合した長期タスク処理に特化した設計は、サプライチェーン管理・コード自動化・複数AIエージェントの協調制御といった実務シナリオとの親和性が高い。 オープンソース版の公開も「モデルが安定した段階で」検討されているとLuo氏は述べており、今後の動向は要注目だ。GPT・Claudeが当然視されてきたフロンティアに、コスト競争力を武器にした第三極が出現しつつある。 元記事: Inside Xiaomi’s MiMo-V2-Pro: A 1T-Parameter Agentic LLM Challenging GPT-5.2 on Cost and Capability

March 24, 2026 · 1 min · 胡田昌彦

エンタープライズAIが本番稼働へ——NVIDIAのAgent ToolkitがPoC時代の終焉を告げる

エンタープライズAIがPoC(概念実証)から本番運用へ NVIDIAは2026年3月に開催した年次カンファレンス「GTC 2026」において、エンタープライズ向けAIエージェントの標準化を目指すAgent Toolkitを発表した。Adobe、SAP、Salesforceをはじめとする50社超がすでに採用を表明しており、企業AIの本格展開を加速する節目となる発表として注目を集めている。 3つのコアコンポーネント Agent Toolkitは以下の3つの主要コンポーネントで構成されている。 OpenShell(セキュリティランタイム) エンタープライズ環境でAIエージェントを安全に実行するためのセキュリティランタイム。企業が最も懸念する「AIエージェントによる意図しない操作や情報漏洩」を防ぐ仕組みを提供する。金融・医療・製造など規制産業での本番導入を想定した設計だ。 AI-Q(リサーチエージェント) 複雑な調査・分析タスクを自律的にこなすリサーチエージェント。社内ドキュメントや外部データを横断的に検索・統合し、担当者が数時間かけて行っていた情報収集作業を大幅に短縮できるとされる。 Nemotronオープンモデル NVIDIAが独自に開発・公開するオープンな大規模言語モデル群。商用利用も可能な形でバンドルされており、クラウドAPIへの依存を減らしながらオンプレミスや専用クラウド環境でのAI活用を可能にする。 コスト50%削減とベンチマーク首位という二兎を得た NVIDIAの発表によれば、Agent Toolkitの導入によりエージェントクエリのコストを最大50%削減できるという。同時に精度面でも複数のベンチマークで首位を達成しており、「コストか精度か」というトレードオフを打ち破る結果を示している。 これは日本企業にとっても重要な意味を持つ。国内では生成AIの「PoC疲れ」が指摘されて久しく、実証実験から本番移行できない案件が積み上がっている。コストと精度の両立は、その最大のボトルネックを解消する可能性がある。 「パイロット時代の終わり」が意味するもの 50社超の採用表明は単なる関心表明ではなく、具体的な本番展開のコミットメントを含む。SAPはERPワークフローへの組み込み、SalesforceはCRM上での顧客対応エージェント展開を計画しているとされる。 エンタープライズAI市場では、MicrosoftのCopilot、GoogleのGemini for Workspaceとの競争が激化している。NVIDIAはGPUインフラという強みを活かしつつ、アプリケーション層にまで踏み込むことでプラットフォームとしての地位確立を狙う戦略を鮮明にした。 まとめ NVIDIAのAgent Toolkitは、エンタープライズAIの本番展開に必要な「セキュリティ」「エージェント機能」「オープンモデル」を一つのパッケージで提供する点が特徴だ。国内でもSAPやSalesforceのエコシステムを通じて間接的な影響が広がるとみられ、今後の国内大手ベンダーの対応動向が注目される。 元記事: Enterprise AI Goes Live: NVIDIA’s Agent Toolkit Signals the End of the Pilot Era

March 24, 2026 · 1 min · 胡田昌彦

Microsoft、Windows 11の大幅改善を約束——再起動削減・タスクバー移動・Copilot縮小まで

Microsoft、Windows 11のユーザー体験を抜本的に見直しへ Microsoftは、Windows 11に対してユーザーから長らく寄せられていた不満に正面から向き合い、複数の重要な改善を約束した。パフォーマンスの向上からインターフェースの自由化、そしてCopilot(AI機能)の存在感の縮小まで、今回の発表は幅広い領域にわたっている。 アップデートの再起動を大幅削減 Windows Updateをめぐる最大の不満のひとつが「強制再起動」だ。作業中に突然再起動を求められたり、席を外した隙にPCが再起動されてデータが失われたりといった経験を持つユーザーは多い。Microsoftは今回、アップデート適用時の自動再起動回数を削減することを明言した。 あわせて、アップデートの「一時停止(スヌーズ)」ができる期間も延長される予定で、ユーザーが自分のスケジュールでアップデートを管理しやすくなる。 デバイスセットアップの高速化 新しいデバイスのセットアップ時に大量のアップデートが走ってセットアップが長引く問題についても対応が図られる。アップデートをスキップして初期セットアップを素早く完了できるオプションが追加される見込みで、特に法人環境での展開に恩恵をもたらすと期待される。 タスクバーの移動が再び可能に Windows 10では画面の上部や左右にタスクバーを移動できたが、Windows 11ではこの機能が廃止され、多くのユーザーから批判を受けてきた。Microsoftはついにタスクバーの位置変更に対応することを示唆しており、カスタマイズ派のユーザーにとっては朗報だ。 Bluetooth・USB・カメラ/オーディオの信頼性強化 日常的な周辺機器まわりの安定性も改善対象に含まれている。Bluetoothデバイスの接続安定性、USBデバイスの挙動の予測可能性、そしてカメラやマイクなどのオーディオデバイスの信頼性が強化される。テレワークが定着した現在、Web会議中のデバイストラブルを防ぐ意味でも重要な改善だ。 Copilot(AI)の存在感を縮小 Windows 11でAI機能「Copilot」を強引に前面に押し出してきたMicrosoftだが、今回はその方向を修正する姿勢を見せている。Copilotの表示や動作をより控えめにする変更が予告されており、AIを必要としないユーザーへの配慮が示された形だ。 まとめ:「ユーザーの声を聞いた」改善か 今回発表された改善項目の多くは、ユーザーコミュニティやSNSで長年にわたり要望されてきたものばかりだ。具体的なリリース時期は明らかになっていないが、Microsoftが「使いやすさ」への回帰を本格的に意識し始めたことは間違いない。日本でも企業・個人を問わず広く使われるWindows 11だけに、今後のアップデートに注目が集まる。 元記事: Microsoft promises faster Windows 11, fewer update restarts, movable taskbar, and less Copilot

March 24, 2026 · 1 min · 胡田昌彦

Windows 11の2026年3月更新(KB5079473)でSysmonが標準搭載——セキュリティ監視がすぐに使える時代へ

Microsoftは2026年3月10日、Windows 11 バージョン25H2および24H2向けの累積更新プログラムKB5079473をリリースした。セキュリティ修正を中心としながら、エンタープライズ環境にとって見逃せない新機能が複数含まれている。 Sysmonがついに標準搭載——追加インストール不要に 今回の更新で最も注目すべき変更点は、Sysmon(System Monitor)のWindows標準搭載だ。Sysmonはもともと、MicrosoftのSysinternalsチームが提供する高度なシステム監視ツールで、プロセスの作成、ネットワーク接続、ファイル変更などを詳細にイベントログへ記録できる。これまでは別途ダウンロード・インストールが必要だったが、本更新以降はWindowsに同梱されるため、インシデントレスポンスやセキュリティ監視の導入コストが大幅に下がる。 企業のSOC(セキュリティオペレーションセンター)担当者やセキュリティエンジニアにとって、管理対象の全PCへSysmonを展開する手間が省けるのは大きなメリットだ。EDR製品との連携はもちろん、Microsoft Sentinelなどのクラウド型SIEMへのログ取り込みも容易になる。 Emoji 16.0対応と日常利用の改善 セキュリティ面以外の改善点も充実している。Unicode 16.0で定義されたEmoji 16.0への対応が追加され、新しい絵文字が利用可能になった。日本でもビジネスチャットやSNSで絵文字を多用するユーザーには嬉しいアップデートだ。 また、タスクバーからネットワーク速度テストが直接実行できるようになった。テレワーク環境でのトラブルシューティングや、会議前の回線確認がより手軽に行えるようになる。さらに、WebP形式の画像をデスクトップ壁紙に設定できるようになった。WebPは高圧縮・高品質な次世代画像フォーマットで、PNGやJPEGに比べてファイルサイズを抑えつつ綺麗な壁紙が楽しめる。 セキュリティ関連の修正 Secure Boot証明書の更新準備 重要な注意事項として、Secure Boot証明書が2026年6月以降に順次失効することが改めてアナウンスされた。多くのWindowsデバイスで使用されているSecure Boot証明書が期限切れになると、デバイスのセキュアブートに支障をきたす可能性がある。Microsoftは今回の更新で、新しいSecure Boot証明書を自動配布するためのデバイスターゲティングデータを拡充しており、対象デバイスへの証明書更新を段階的に進めている。 管理者は早めに影響範囲を確認し、公式ドキュメント「Windows Secure Boot certificate expiration and CA updates」を参照して事前対応を進めることが推奨される。 その他のセキュリティ・品質改善 File Explorer: 複数ドライブや「このPC」をまたいだ検索の信頼性が向上 Windows Defender Application Control(WDAC): COMオブジェクトの許可リストポリシーの処理が改善され、エンドポイントセキュリティポリシーとの競合が解消 Windows System Image Manager: 信頼済みカタログファイル選択時の確認ダイアログが追加され、誤選択を防ぐ安全策が強化 既知の問題 本更新には既知の不具合も存在する。インストール後、Microsoft TeamsのFreeプランをはじめとする一部アプリでMicrosoftアカウントへのサインインが失敗するケースが報告されている(3月19日追記)。回避策や修正パッチについてはMicrosoftのリリースヘルスダッシュボードを継続確認してほしい。 KB5079473はWindows Updateから自動配信されるほか、Microsoft UpdateカタログからISOを手動適用することも可能だ。Sysmonの標準搭載はWindowsのセキュリティ可視性を底上げする転換点となりうる。セキュリティ担当者はアップデート後の動作確認を早めに実施することをおすすめする。 元記事: Windows 11 March 2026 Update KB5079473: Sysmon In-Box and Emoji 16

March 24, 2026 · 1 min · 胡田昌彦

【3月パッチ火曜日】Microsoftが84件の脆弱性を修正——公開済みゼロデイ2件を含む深刻な欠陥に対応

Microsoftが3月の定例更新で84件の脆弱性を修正 Microsoftは2026年3月の「Patch Tuesday(パッチ・チューズデー)」において、84件のセキュリティ脆弱性を修正する月例更新を公開した。このうち2件は修正公開前にすでに情報が外部へ開示された「ゼロデイ脆弱性」であり、早急な適用が推奨される。 対象コンポーネントと脆弱性の概要 今回の更新で修正された脆弱性は、Windowsカーネル・Hyper-V・Kerberos認証・グラフィックスコンポーネントなど、Windowsの中核をなす多岐にわたるコンポーネントに及ぶ。特に注目されるのは、CVSSスコア(共通脆弱性評価システム)が高い権限昇格(EoP: Elevation of Privilege)系の脆弱性が複数含まれている点だ。 権限昇格系の脆弱性は、攻撃者がすでにシステムへの初期アクセスを得ている場合に、より高い権限を不正に取得するために悪用される。ランサムウェアや標的型攻撃における「横展開(ラテラルムーブメント)」の足がかりとなりやすく、企業環境では特に警戒が必要だ。 ゼロデイ脆弱性の詳細 2件の公開済みゼロデイについては、Microsoftが今月の修正時点で「野外での悪用(In the Wild)は確認されていない」と説明している。しかし、脆弱性の詳細情報が公開されている以上、攻撃者がエクスプロイトコードを開発するまでの時間は短い。セキュリティ研究者は「公開済みゼロデイは未修正の状態で放置してはならない」と口をそろえる。 企業環境での影響 Hyper-V(Windows標準の仮想化基盤)に関する脆弱性は、クラウドインフラや仮想デスクトップ基盤(VDI)を運用する企業に直接影響する可能性がある。また、KerberosはActive DirectoryベースのWindows企業ネットワーク認証の根幹をなすプロトコルであり、悪用された場合には認証情報の窃取やドメイン全体への影響につながりかねない。 日本企業の多くはActive Directoryを中心としたオンプレミス環境を維持しており、これらのコンポーネントへの脆弱性対応は特に重要度が高い。 推奨される対応 Windowsの「Windows Update」または組織のWSUS(Windows Server Update Services) ・SCCM/Intuneなどのパッチ管理ツールを通じて、可能な限り速やかに今月の更新プログラムを適用することを強く推奨する。 テスト環境での検証が必要な企業においても、公開済みゼロデイを含む今回の更新は優先度を上げて対処すべきだ。パッチ適用の前後でシステムの動作確認を実施し、問題が発生した場合に備えてロールバック手順を準備しておくことも重要となる。 Microsoftのセキュリティアップデートガイドでは、各CVE(共通脆弱性識別子)番号ごとに詳細な影響範囲と深刻度が公開されている。システム管理者はこれを参照しながら自環境への影響を精査することが望ましい。 元記事: Microsoft Patches 84 Flaws in March Patch Tuesday, Including Two Public Zero-Days

March 24, 2026 · 1 min · 胡田昌彦

Azure VMイメージのホットパッチ適用がGA——再起動不要でセキュリティパッチを適用

Azure VMでホットパッチが一般提供開始——ダウンタイムゼロのセキュリティ管理へ Microsoftは、Azure仮想マシン(VM)イメージに対するホットパッチ(Hotpatching)機能の一般提供(GA)を開始した。この機能により、仮想マシンを再起動せずにセキュリティパッチを適用できるようになり、クラウドインフラの運用における大きな制約が解消される。 ホットパッチとは何か ホットパッチとは、OSのカーネルやシステムコンポーネントを実行中の状態のまま更新する技術だ。従来のパッチ適用では、変更を有効化するためにシステムの再起動が必要だった。特にサービスの継続性が求められる本番環境では、メンテナンスウィンドウの設定や事前告知など、パッチ適用に伴う運用コストが無視できない課題となっていた。 Azureのホットパッチは、Microsoftが長年Windows Serverカーネルに取り組んできたライブパッチ技術をクラウドVM向けに展開したもの。AWSの「Live Patching」やRed Hatの「RHEL Live Kernel Patching」と同様のアプローチを採用している。 2026年3月Patch Tuesdayにも即対応 今回のGA発表と時期を合わせ、2026年3月のPatch Tuesday(毎月第2火曜日に公開されるMicrosoftの定例セキュリティ更新)で公開された83件のCVE(Common Vulnerabilities and Exposures)修正についても、ホットパッチで対応可能であることが確認されている。 83件という修正件数は決して少なくなく、従来であればこれらすべてに再起動を伴う計画的なメンテナンスが必要だった。ホットパッチの活用により、ダウンタイムゼロでセキュリティ態勢を最新の状態に保つことが現実的になった。 日本企業への影響 日本では金融・医療・製造といった分野でクラウドシフトが進む一方、「サービス停止が許容できない」という理由でパッチ適用を後回しにするケースが散見される。ホットパッチのGA化は、こうした運用上のジレンマを解消する一手になりうる。 Azureをメインクラウドとして採用している企業はもちろん、ハイブリッドクラウド環境でAzure VMを活用している現場でも、パッチ管理戦略の見直しを検討する価値があるだろう。 今後の展開 MicrosoftはAzure Update Managerとの統合も進めており、ホットパッチの適用状況を一元的に管理・可視化できる仕組みの整備も期待される。セキュリティとサービス継続性の両立を目指すクラウド運用チームにとって、見逃せないアップデートだ。 元記事: Hotpatching now available for Azure VM images

March 24, 2026 · 1 min · 胡田昌彦

Azure大型アップデート総まとめ:Microsoft FabricがCI/CD・AIマルチモーダル対応で大幅強化(2026年3月第4週)

Microsoft Azure、3月第4週に大規模アップデートを一斉公開 2026年3月23日週のAzureアップデートは、Microsoft Fabricを中心とした怒涛のリリースラッシュとなった。データエンジニアリング、AI統合、セキュリティ、データベース開発ツールの各領域で20を超える新機能・改善が発表されており、日本のエンタープライズユーザーにとっても見逃せない内容となっている。 Microsoft Fabric:CI/CDとAI機能が大幅強化 最大のトピックは Microsoft Fabric の包括的な機能強化だ。今回のアップデートで特に注目すべき点を以下にまとめる。 CI/CD対応の本格化として、一括エクスポート・インポートAPI(Bulk Export and Import APIs)が新たに導入された。これにより、Fabricワークスペースのアーティファクトを自動化パイプラインで管理できるようになり、DevOpsフローとの統合が格段に容易になる。合わせてGit開発者エクスペリエンスも刷新されており、コード管理とデータパイプラインの連携を強化する方向性が明確になった。 マルチモーダルAIのFabric統合も大きな前進だ。画像やPDFからインサイトを抽出できるマルチモーダルサポートが「Fabric AI functions」に追加された。非構造化データを含む複合的な分析シナリオへの対応が、プラットフォームネイティブな形で実現する。 リアルタイム処理の強化では、データベースCDC(Change Data Capture)フィードとFabric EventstreamsのDeltaFlowを組み合わせたイベント駆動アプリケーション構築が可能になった。製造・金融・物流など、変更データのリアルタイム処理が求められる日本企業にとって実用性が高い。 データベース・開発者ツールも充実 SQL周辺の開発者ツールも大幅に進化している。SQL Server Management Studio(SSMS)22にGitHub Copilotが統合されたほか、SQL MCPサーバーの公開によりAIエージェントからのSQL操作が標準化された。また、MSSQLエクスポート向け「Schema Designer」へのGitHub Copilot統合や、「Data API builder」へのCopilot組み込みも発表されており、データベース開発全体のAI化が加速している。 Azure SQLでは、透過的データ暗号化(TDE)のバージョンレスキーサポートが追加された。キー管理の運用負荷を軽減できる実用的な改善だ。 廃止予定アナウンスにも注意 今回のニュースレターには、インフラ系VMシリーズの廃止スケジュールも複数含まれている。 HCシリーズ Azure VM:2027年5月31日廃止 HBv2シリーズ Azure VM:2027年5月31日廃止 NPシリーズ Azure VM:2027年5月31日廃止 Azure Sphere:2031年7月31日廃止 HPC(高性能計算)用途でHCシリーズやHBv2シリーズを利用中の組織は、移行計画の検討を開始する時期に来ている。 Azure Synapse→Fabricへの移行支援も強化 「Azure SynapseおよびAzure Data FactoryからMicrosoft Fabricへ」という移行ガイダンスも公開された。レガシー環境から次世代分析基盤への移行を検討している日本のデータチームにとって、具体的な移行パスが示された形だ。Spectral Core Fabric Workloadを通じたガイド付き移行体験も新たに提供される。 今回の大規模アップデートは、MicrosoftがFabricを「次世代データプラットフォームの中核」と位置付け、AIネイティブな開発体験の整備に本腰を入れていることを強く示すものだ。2026年はAzureデータ基盤の再構築を検討する絶好のタイミングと言えるだろう。 元記事: Azure Newsletter - 23/03/2026

March 24, 2026 · 1 min · 胡田昌彦

AKSでAzure Linux OS Guardがパブリックプレビュー開始——Istio CNIも同時プレビューでセキュリティを大幅強化

AKSのセキュリティが一段階進化——OS GuardとIstio CNIが同時プレビュー Microsoftは、Azure Kubernetes Service(AKS)において新機能「Azure Linux OS Guard」のパブリックプレビュー開始を発表した。同時に、サービスメッシュ実装の一部であるIstio CNIもプレビュー段階に移行した。いずれもAKSクラスターのセキュリティ強化を目的とした機能であり、特にエンタープライズ環境での本番運用を視野に入れたユーザーに注目されている。 Azure Linux OS Guardとは Azure Linux OS Guardは、AKSのノードOSとして採用されているAzure Linuxに対して、ハードニング(強化)済みのイミュータブル(不変)な構成を提供する機能だ。イミュータブル構成とは、OSの起動後にシステムファイルへの書き込みを原則禁止し、構成の意図しない変更や攻撃者による改ざんを防ぐアプローチを指す。 コンテナワークロードの本番環境では、ノードOSの完全性(インテグリティ)が侵害された場合、同一ノード上の全Podへの影響が懸念される。OS Guardはこのリスクを根本から低減する設計となっており、コンプライアンス要件が厳しい金融・医療・官公庁向けシステムへの採用が期待される。 Istio CNIでNET_ADMIN/NET_RAW権限が不要に 同時プレビュー入りしたIstio CNI(Container Network Interface)も見逃せない。 IstioはKubernetes上で広く使われているサービスメッシュだが、従来の構成では各Podにサイドカープロキシ(Envoy)を注入する初期化コンテナがNET_ADMINおよびNET_RAWという高権限のLinuxケイパビリティを必要としていた。これらは、ネットワークインターフェースやパケットを低レベルで操作できる強力な権限であり、セキュリティポリシー上の懸念点となるケースが多かった。 Istio CNIを使用すると、この初期化処理をKubernetesノード側のCNIプラグインに移譲できるため、PodレベルでNET_ADMINおよびNET_RAW権限を与える必要がなくなる。最小権限の原則(Principle of Least Privilege)に基づくゼロトラストアーキテクチャを実践したい組織にとって、大きな前進と言える。 Azure Linux 2.0のサポート終了にも注意 なお、AKSのリリース情報によると、Azure Linux 2.0のセキュリティアップデートは2025年11月30日をもって終了しており、2026年3月31日以降はノードイメージも削除予定だ。現在もAzure Linux 2.0を使用しているユーザーは、速やかにAzure Linux 3(osSku: AzureLinux3)へのアップグレードを検討する必要がある。 まとめ 機能 状態 主なメリット Azure Linux OS Guard パブリックプレビュー OSのイミュータブル化による改ざん防止 Istio CNI プレビュー NET_ADMIN/NET_RAW権限不要でセキュリティ向上 Azure Linux 2.0 サポート終了 Azure Linux 3への移行が必須 両機能はAKSのリリーストラッカーからリージョン別のロールアウト状況を確認できる。プレビュー機能のため本番環境への適用前には十分な検証を行うことが推奨される。 元記事: AKS: Azure Linux OS Guard now in Public Preview + Istio CNI Preview ...

March 24, 2026 · 1 min · 胡田昌彦

MicrosoftがAnthropicのAI技術でCopilot Coworkを発表——業務タスクの自動化を3月末から本格展開

MicrosoftとAnthropicが組んだ「Copilot Cowork」とは Microsoftは2026年3月、AI企業Anthropicとの技術協業によって開発した新機能「Copilot Cowork」を、Microsoft 365(M365)向けに展開すると発表した。同機能はFrontierプログラムを通じて3月末から広範な提供が始まる予定で、企業の業務タスク自動化を大きく前進させると期待されている。 AnthropicのClaudeをM365に統合 Copilot Coworkの核となるのは、AnthropicのAIモデル「Claude」の技術だ。MicrosoftはすでにOpenAIとの深い提携関係で知られるが、今回のAnthropicとの協業は、複数の最先端AIを戦略的に組み合わせることで、エンタープライズ向けの能力をさらに高める狙いがある。 Claudeは高度な文脈理解と長文処理能力に定評があり、複雑なビジネスドキュメントの読み込みや、複数ステップにわたる業務フローの自動実行に適している。Copilot Coworkはこの強みを活かし、メール対応・会議の議事録作成・プロジェクト進捗管理など、これまで人手に頼っていたルーティン業務を自律的にこなすことを目指す。 既存M365ライセンスとの関係 日本企業にとって気になるのは、導入コストだろう。現時点での情報によれば、Copilot CoworkはFrontierプログラムの一環として提供される。Frontierプログラムとは、Microsoftが法人顧客向けに最新AI機能を先行展開する仕組みで、既存のMicrosoft 365ライセンスを持つ企業が優先的にアクセスできる。 ただし、すべてのM365プランで自動的に利用可能になるかどうかは、ライセンスの種別や契約内容によって異なる見通しだ。特にCopilot関連機能はMicrosoft 365 Copilotアドオン(日本円で月額約4,500円〜)が必要なケースが多く、導入検討の際は自社のライセンス体系を確認することが推奨される。 日本市場への影響 国内でもM365は広く普及しており、多くの企業がTeams・Outlook・SharePointを基幹業務に組み込んでいる。Copilot Coworkが本格展開されれば、日本語での業務自動化にも恩恵が及ぶ可能性がある。特にAnthropicのClaudeは多言語対応に優れており、日本語処理の精度についても注目が集まる。 Microsoftは今後、Copilot Coworkの詳細なロードマップや対応言語・機能の拡充計画を順次公表するとみられる。3月末の正式展開に向けて、エンタープライズAI活用を検討している企業は動向を注視しておきたい。 元記事: Microsoft launches Copilot Cowork with Anthropic technology to automate business tasks

March 24, 2026 · 1 min · 胡田昌彦

Microsoft 365 E7「フロンティア スイート」が示すAIエージェント時代のSaaSセキュリティの未来

AIがSaaS環境の「アクター」になる時代へ Microsoftが2026年5月1日に提供開始を予定しているMicrosoft 365 E7(通称「フロンティア スイート」)は、一見するとライセンスの束に過ぎないように見える。しかし、その中身を紐解くと、Microsoftがエンタープライズ向けAIの未来をどう描いているかが鮮明に浮かび上がってくる。 E7はMicrosoft 365 E5、Microsoft 365 Copilot、Agent 365、Microsoft Entra Suiteを統合し、Defender・Intune・Purviewにわたる高度なセキュリティ機能を含む。価格はユーザーあたり月額99ドル(約15,000円)。Agent 365は単体でも月額15ドルで提供される。 注目すべきは「Agent 365」の登場 このパッケージの核心は、Copilotの進化ではなくAgent 365にある。MicrosoftはAgent 365を「AIエージェントの管理コントロールプレーン」と位置づけており、組織内のエージェントを検出し、ポリシーを適用し、ライフサイクルとアクセスを管理し、挙動を監視し、監査証跡を維持する機能を提供する。 これは従来の「チャット補助・文章生成」という文脈を大きく超えている。MicrosoftのCopilot Wave 3では、長時間・複数ステップにわたるエージェント型のタスク実行が強調されており、「Work IQ」によってビジネスコンテキストをワークフローに組み込む構想も示されている。つまり、AIが単に質問に答えるのではなく、企業システムをまたいで継続的にタスクを実行する存在になるということだ。 セキュリティ担当者が今すぐ認識すべき変化 長年にわたり、SaaSセキュリティチームは「人間ユーザー」を中心にアプリの設定ミス、不正な連携、データ露出を管理してきた。AIエージェントの登場はこの前提を根底から変える。 エージェントは独自のアイデンティティ、委任された権限、永続的なアクセス権を持ち、複数のシステムをまたいでワークフローをトリガーできる。これは従来の「人間ユーザー」とは異なる新たなリスク主体(アクター)の誕生を意味する。 Microsoftはこの問題に対応するため、Microsoft Entra Agent IDというエージェント専用のアイデンティティ管理の仕組みを導入した。条件付きアクセス(Conditional Access)、IDガバナンス、ネットワークレベル制御といった、従来の人間ユーザー向けのID管理と同等の統制をエージェントにも適用できる設計だ。 「アシスタントリスク」から「アクターリスク」へ セキュリティチームが今すぐ内面化すべき本質的な変化はここにある。 旧来の視点:AIリスク=プロンプトインジェクション、モデルの挙動、抽象的な「AIガバナンス」 新しい現実:AIエージェントが何に接続されているか、何にアクセスできるか、何をすることが許可されているか、そして事後に何が起きたか証明できるか 日本企業においても、Microsoft 365の普及率は高く、Copilot導入が加速する中でAgent 365の影響は無視できない。Entra SuiteとPurviewを活用したガバナンス体制の整備、エージェントアイデンティティの可視化と最小権限の適用が、今後のSaaSセキュリティ戦略の要となるだろう。 MicrosoftのE7発表が示すのは、AIはもはや「便利な機能」ではなく、セキュリティポリシーの対象として扱わなければならない独立したアクターになったという宣言である。 元記事: Microsoft 365 E7: What the Frontier Suite Signals About the Future of AI in SaaS Security

March 24, 2026 · 1 min · 胡田昌彦

iPhone 17 ProでなんとLLM 400Bが動作——オンデバイスAIの常識を覆すデモが話題に

iPhone 17 Proで400Bパラメータ級LLMが動作——オンデバイスAIの限界を更新 Apple製デバイス向けLLM推論プロジェクト「ANEMLL(Apple Neural Engine Machine Learning)」が、iPhone 17 Proで4000億(400B)パラメータ規模の大規模言語モデル(LLM)を動作させるデモ映像を公開し、開発者コミュニティで大きな反響を呼んでいる。Hacker Newsでは370ポイント以上を獲得し、200件超のコメントが集まった。 400Bとはどれほど巨大か 400Bパラメータというのは、現時点で公開されている最大クラスのオープンモデルと肩を並べる規模だ。たとえばMeta社のLlama 3.1の最大モデルが405Bであり、数年前まで「クラウド専用」の代名詞だった規模感である。これをデータセンターのGPUクラスタではなく、ポケットに入るスマートフォン1台で動かすという試みは、エッジAIの文脈において革命的な意味を持つ。 ANEMLLが活用するApple Neural Engine ANEMLLは、iPhoneおよびiPad・Mac搭載のApple Siliconに内蔵される「Apple Neural Engine(ANE)」を最大限活用するためのLLM推論フレームワークだ。ANEはCPU・GPUとは独立した専用演算ユニットであり、行列演算を高効率・低電力で処理できる。通常のLLMフレームワークがCPUやGPUを主に使うのに対し、ANEMLLはANEに最適化したモデル変換と推論パイプラインを独自に構築している。 今回のデモでは、4ビット量子化(INT4)などのモデル圧縮技術と、Apple Siliconの統合メモリアーキテクチャを組み合わせることで、超大規模モデルをオンデバイス推論可能にしていると考えられる。iPhone 17 Proは前世代から大幅に増強されたメモリ容量と改良されたANEを搭載しており、こうした試みを可能にするハードウェア基盤が整ってきた形だ。 プライバシーとレイテンシの観点から オンデバイスでLLMが動作することの意義は、単なる技術的な面白さにとどまらない。クラウドにテキストを送信せずに処理できることはプライバシー保護に直結し、ネットワーク遅延も排除できる。医療・法律・金融といった機密性の高い業務や、オフライン環境でのAI活用にも道が開ける。 日本国内でも個人情報保護法や各種業界ガイドラインの観点から「クラウドに社内データを送りたくない」というニーズは強い。大規模モデルのオンデバイス化が実用レベルに達すれば、エンタープライズ向けモバイルAIの設計思想そのものが変わりうる。 現時点での課題 Hacker Newsのコメント欄では「推論速度はどの程度か」「トークン生成レートが実用域に達しているか」を問う声が多く上がっている。400Bモデルを数ビット量子化しても必要なメモリ帯域幅は膨大であり、現状では応答速度に制約があることが予想される。デモがどの程度の実用性を示しているかは、続報を待つ必要がある。 とはいえ、わずか数年前には「スマートフォンでGPT-2クラスすら動かない」とされていた時代から、今や400B規模のデモが登場するまでに至った進化の速度は驚異的だ。ANEMLLの取り組みは、オンデバイスAIの可能性を再定義する一石として記憶されることになりそうだ。 元記事: iPhone 17 Pro Demonstrated Running a 400B LLM

March 23, 2026 · 1 min · 胡田昌彦

兄の整備工場のために「AIフロント係」を自作した話——RAG+音声AIで取り逃がし客をゼロに

月数十万円の機会損失を「AIフロント係」で解決する 兄が高級車専門の整備工場を経営しているが、毎週数百件もの電話に出られず、月に数千ドル相当の受注機会を逃していた。エンジンルームに頭を突っ込んでいる最中に電話が鳴り、出られなければ客は他店へ電話する。ブレーキ交換なら450ドル、エンジン修理なら2,000ドルの案件が、電話一本で消えていく。 そこで筆者が自作したのが、AIボイスエージェント「Axle(アクスル)」だ。車の車軸(axle)にちなんだ名前で、単なる汎用チャットボットではなく、工場の正確な料金・営業時間・ポリシーを把握した専用の音声受付システムである。 Part 1:AIの「脳」をRAGパイプラインで構築する 最初の課題は、AIがハルシネーション(事実に基づかない回答)なく正確に答えられるかだ。素のLLMに「ブレーキはいくら?」と聞かせると、実際は450ドルなのに200ドルと答えかねない。これは顧客の期待を裏切り、クレームに直結する。 これを防ぐために採用したのがRAG(Retrieval-Augmented Generation:検索拡張生成)だ。モデルに推測させるのではなく、実際の情報をナレッジベースとして与え、そこからのみ回答させる仕組みである。 実装ステップ ① ウェブサイトをスクレイピングしてナレッジベース化 サービスページや料金表をMarkdownファイルとして収集。サービス種別・料金・納期・営業時間・支払い方法・キャンセルポリシー・保証・代車有無・対応車種など、21以上のドキュメントを整備した。 ② MongoDB AtlasにベクトルDBとして格納 各ドキュメントをVoyage AI(voyage-3-large)で1024次元のベクトルに変換して格納。単なるキーワード一致ではなく「意味的な近さ」で検索できるため、「ブレーキ交換の値段は?」という問いかけが、文言が異なっていても正確にブレーキ料金ドキュメントを引き当てられる。 ③ Claude(Sonnet)で回答生成 取得したドキュメントをコンテキストとしてAnthropic Claude(claude-sonnet-4-6)に渡し、「ナレッジベースにある情報のみで答え、知らなければ折り返し連絡を申し出る」という厳格なシステムプロンプトで制御する。 この段階でターミナルから質問を入力すると、「オイル交換はいくら?」→「conventional(鉱物油)は45ドル、synthetic(化学合成油)は75ドルです。フィルター交換・液体補充・タイヤ空気圧チェック込みで約30分です」という正確な回答が返るようになった。 Part 2:実際の電話番号と接続する 次に、このAIを実際の電話回線につなぐためVapiを採用した。Vapiは電話番号の取得・音声認識(Deepgram)・音声合成(ElevenLabs)・リアルタイム関数呼び出しをすべて担う音声AIプラットフォームだ。 筆者はFastAPIでWebhookサーバーを構築。顧客が質問するとVapiがサーバーの/webhookエンドポイントにリクエストを送り、サーバーがRAGパイプライン経由でClaudeに問い合わせて回答を返す。Vapiはその回答を音声合成して顧客に話しかける、というフローだ。 技術スタックのまとめ 役割 採用技術 ナレッジベース検索 MongoDB Atlas Vector Search 埋め込みモデル Voyage AI(voyage-3-large) LLM Anthropic Claude(claude-sonnet-4-6) 音声インフラ Vapi(Deepgram + ElevenLabs) バックエンド FastAPI(Python) このようなRAG+音声AIの組み合わせは、中小規模の対人サービス業(飲食店・クリニック・不動産など)でも応用可能だ。電話対応の人手不足に悩む日本の事業者にとっても、参考になる実装アプローチといえる。 元記事: I built an AI receptionist for a mechanic shop

March 23, 2026 · 1 min · 胡田昌彦

Trivyへのサプライチェーン攻撃が拡大——DockerHubとGitHubリポジトリにも被害

Trivyへのサプライチェーン攻撃が拡大——DockerHubとGitHub組織にまで波及 オープンソースの脆弱性スキャナ「Trivy」を開発するAqua Securityが、「TeamPCP」と呼ばれる脅威アクターによる継続的な攻撃を受けていることが明らかになった。攻撃者はAquaのGitHub組織を侵害し、悪意あるDockerイメージの公開やリポジトリの大規模な改ざんを実行した。 GitHubのビルドパイプラインが起点に TrivyはGitHubで3万3,800以上のスターを持つ人気ツールで、コンテナイメージやソフトウェア成果物の脆弱性・設定ミス・シークレット漏洩を検出するために広く利用されている。 サプライチェーンセキュリティ企業のSocketは、3月22日にDockerHubへ公開された新しいイメージタグ「0.69.5」と「0.69.6」に問題があることを報告した。これらのタグには対応するGitHubリリースやタグが存在せず、TeamPCPが展開したインフォスティーラー(情報窃取マルウェア)の侵害指標が含まれていた。最新の正規リリースは「0.69.3」であり、Socketは「DockerHubのタグはイミュータブル(変更不可)ではないため、タグ名だけで整合性を判断すべきではない」と警告している。 二度にわたるGitHub組織への不正アクセス Aqua Securityは3月20日、以前の対応時に実施したシークレット・トークンのローテーションが不完全だったため、攻撃者がリフレッシュされたトークンを入手し、再度アクセスを確立したと発表した。この侵害により、Trivyのビルドパイプラインに資格情報を窃取するコード「TeamPCP Cloud stealer」が注入された。 さらに3月22日、同じ脅威アクターがaquasec-comというGitHub組織(非公開の独自コードをホスト)に対して追加の不正アクセスを行ったことが確認された。攻撃者は自動化スクリプトを用い、わずか2分で組織内の44リポジトリすべての名前に接頭辞「tpcp-docs-」を付加し、説明文を「TeamPCP Owns Aqua Security(TeamPCPはAqua Securityを所有する)」に書き換えた。 サービスアカウントのPATが悪用される マルウェアインテリジェンスプラットフォームのOpenSourceMalwareによると、攻撃者は「Argon-DevOps-Mgt」という名のサービスアカウントを侵害することで、AquaのパブリックおよびプライベートのGitHub組織両方へのアクセス権を得た。 このサービスアカウントはGitHub Appではなく、通常ユーザーのPersonal Access Token(PAT)で認証を行っていた。PATはパスワードと同様に機能し、GitHub Appのトークンより有効期間が長い。また、サービスアカウントは通常MFA(多要素認証)が設定されていないという構造的な問題も悪用された。 攻撃者はパブリックリポジトリaquasecurity/trivy-plugin-aquaに新しいブランチを作成・削除することで、管理者権限の確認テストも実施していた。 影響と対策 Aqua Securityは3月20日に安全なバージョンのTrivyを公開済みで、インシデントレスポンス企業Syngniaと連携して対応にあたっている。現時点でTrivyの最新バージョン自体への影響は確認されていない。 Trivyを利用している組織は、DockerHubから取得したイメージのタグと公式GitHubリリースを照合し、バージョン0.69.5・0.69.6を使用していないか確認することが強く推奨される。また、サービスアカウントへのPAT認証の見直しとMFAの適用も重要な対策となる。 元記事: Trivy supply-chain attack spreads to Docker, GitHub repos

March 23, 2026 · 1 min · 胡田昌彦

AI・テクノロジーの情報を発信しています

YouTube

AI・テクノロジーの最新トレンドを動画で配信中

note

技術コラム・深掘り記事を公開中