OpenAI、自律型セキュリティAIエージェント「Aardvark」を発表
OpenAIは、セキュリティ調査に特化したAIエージェント「Aardvark」(現在は「Codex Security」に改称)を発表した。GPT-5を基盤とし、脆弱性の発見から調査まで自律的に実行できるエージェントで、ChatGPT Enterprise・Business・Edu向けに研究プレビューとして公開されている。
セキュリティ分野へのAIエージェント進出
Aardvarkは、人間のセキュリティ研究者が行うような脆弱性調査プロセスを自律的にこなすことを目指して設計されている。コードの静的解析にとどまらず、実際の脆弱性パターンを追跡・分析し、潜在的なリスクを特定する能力を持つとされる。
AIエージェント(AI Agent)とは、与えられた目標に向けて自律的に計画・実行・判断を繰り返すAIシステムのことだ。従来のAIアシスタントが「質問に答える」受動的な役割に留まるのに対し、エージェントは自ら行動を起こし、複数ステップのタスクを完遂できる点が大きく異なる。
企業セキュリティチームへの実用価値
セキュリティエンジニアの慢性的な人材不足が続く現在、Aardvarkのようなエージェントは組織のセキュリティ態勢強化に大きく貢献する可能性がある。脆弱性スキャンやペネトレーションテスト(侵入テスト)の一部を自動化することで、人間の専門家はより高度な判断が求められる作業に集中できるようになる。
日本でも、経済産業省や内閣サイバーセキュリティセンター(NISC)がサイバーセキュリティ人材育成を急務と位置付けている中、AI支援によるセキュリティ自動化への関心は高まりつつある。
「研究プレビュー」としての慎重なアプローチ
OpenAIが本ツールを「研究プレビュー」として限定公開している点は注目に値する。攻撃的なセキュリティ手法にも応用できるデュアルユース(二重用途)技術であるため、悪用リスクへの配慮が伺える。エンタープライズ契約ユーザーに対象を絞ることで、利用者の管理とフィードバック収集を慎重に進める方針とみられる。
AIエージェント時代のセキュリティ
GitHubのCopilot、GoogleのProject Marinerなど、コーディング支援を超えた自律型AIエージェントの登場が相次いでいる。Aardvarkはその流れをセキュリティ領域に持ち込んだ先駆的な事例であり、AIが「使うツール」から「自ら動くパートナー」へと進化する転換点を象徴している。
OpenAIは今後、フィードバックをもとに機能拡充を進め、より広いユーザー層への展開を検討していると見られる。
元記事: Introducing Aardvark: OpenAI’s agentic security researcher