AIが生み出すサイバー脅威の議論は以前からあった。しかし今回は話が違う。Anthropicが社内で「Mythos」と呼ぶ次世代モデルの詳細が、誤って公開されてしまったドキュメントを通じて外部に漏れ出し、「サイバーセキュリティにおける分水嶺(ウォーターシェッド)」という表現を専門家が口にするほどの反響を呼んでいる。

何が漏れたのか

Anthropic社の未公開ブログ投稿がFortune誌によって報じられ、その内容に業界が色めき立った。同社の説明によれば、漏洩はコンテンツ管理システムの「人為的ミス」によるもの。ただし内容そのものは否定していない。

文書には「Mythosは現時点で他のいかなるAIモデルよりもサイバー能力で大幅に先行しており、防御側の取り組みをはるかに上回るペースで脆弱性を悪用できる次世代モデルの波を予兆するものだ」と記されていた。

リリースは2026年第2四半期が見込まれており、Anthropicは一部の組織に先行テストへのアクセスを許可。「迫り来るAI主導の悪用に対し、自組織のシステムを強化する」目的とされている。また米政府当局者にも非公式の警告を行っているとAxiosが報じている。

AIエージェントが「攻撃者」になるとき

これまでのAIを使った攻撃は、人間ハッカーが使うツールの一つとしてAIを活用するものだった。だが「AIエージェント」の登場はその前提を壊す。

エージェントとは、人間の指示を待たずに自律的にタスクを実行するAIのことだ。脆弱性のスキャン、悪用コードの生成、攻撃の実行という一連の流れを、人間が介在しないままループで繰り返せるとしたら——単独のエージェントが数百人の人間ハッカーより素早く、しつこく動き続けることになる。

ネットワーキング企業Cato Networksの創業者・CEOであるシュロモ・クレイマー氏はCNNに「エージェント型攻撃者が来る。これはサイバーセキュリティの歴史における転換点だ」と語った。

OpenAIも昨年12月、自社の次期モデルについて「高い」サイバーセキュリティリスクをもたらすと公式に警告しており、こうした流れは一社だけの話ではない。

すでに現実化している「AI活用型攻撃」

理論の話だけではない。2026年1月、技術的なスキルが限られたロシア語圏のサイバー犯罪者が複数のAIツールを組み合わせ、55カ国以上で人気のファイアウォールソフトを実行する600台超のデバイスをハッキングした事例をAmazon Web Servicesのセキュリティチームが報告している。

AWSによれば、この攻撃者は「限られた技術能力にもかかわらず、生成AIサービスを使って攻撃の全フェーズにわたって既知の手法を実装・スケールさせた」という。複数のAIモデルが組み合わせて使われた点も注目に値する。

AI活用型攻撃が「高度なハッカー限定」ではなく、スキルの低い攻撃者の「能力増幅装置」になっているという現実が、ここに示されている。

「人間が消える」わけではない

ただし、現時点では万能ではないことも専門家は指摘する。サイバーセキュリティ企業Armadin社のエバン・ペーニャ氏によれば、高度なAIモデルは脆弱性のリサーチやエクスプロイトコードの開発には優れているが、「その組織にとって最も価値ある情報が何か」を判断するコンテキストは人間ハッカーに劣るという。

米政府に攻撃的サイバー能力を提供するTwenty社のジョー・リン氏は「AIが実行を担う一方で、その結果に責任を持つのは常に人間でなければならない」と述べており、少なくとも当面は「人間+AI」のハイブリッドモデルが攻撃・防御の双方で続くとみられる。

実務への影響——日本のエンジニア・IT管理者が今すぐやるべきこと

この状況を「海外の話」と見ていると危うい。日本企業も無縁ではなく、むしろ対応が遅れやすい環境だからこそ早期の準備が重要だ。

1. 脆弱性管理のサイクルを短縮する AIによる攻撃は脆弱性公開から悪用までの時間を著しく短縮する。「月次パッチ」では追いつかない場面が増える。CVEの監視自動化と優先順位付けに今すぐ投資を。

2. AIを防御側にも組み込む SIEM/SOARへのAI統合、異常検知の強化を検討する。攻撃者がAIを使うなら、守る側もAIで応戦するのが現実的な対策になる。

3. 「スキルの低い攻撃者」を甘く見ない AIによる能力増幅は、標的になるリスクの分布を変える。中小規模の組織も例外ではない。フィッシング・ソーシャルエンジニアリング訓練の見直しも合わせて行うべきだ。

4. ゼロトラスト原則の再確認 「入ってきた相手を信頼しない」という設計原則は、AI活用型攻撃が高速化する世界でより重要になる。ネットワークセグメンテーションや最小権限の実装を改めて点検したい。

筆者の見解

この話題で最も気になるのは、攻撃側が「エージェントのループ」を使い始めているという点だ。単発の指示・応答ではなく、エージェントが自律的に判断・実行・検証を繰り返す仕組みが攻撃に転用されれば、人間の反応速度では対応不可能な局面が出てくる。

逆に言えば、同じアーキテクチャを防御側にも導入しなければ非対称な戦いが続くということでもある。「AIエージェントを自律的にループさせる」技術は攻撃でも防御でも同じ原理で動く。防御側が先手を打って仕組み化できるかどうかが、これからの数年で明暗を分けるだろう。

AIによるサイバーリスクの高まりは、AIを「便利ツール」としてだけ捉えていた段階の終わりを意味する。脅威インテリジェンスとAIの組み合わせ、そして自律的に回り続ける防御エージェントの設計——これを「将来の課題」と先送りできる余裕は、もうないかもしれない。


出典: この記事は Anthropic’s next model could be a ‘watershed moment’ for cybersecurity. Experts say that could also be a concern の内容をもとに、筆者の見解を加えて独自に執筆したものです。