「ClaudeがAI暴走」報道の大誤報
2026年2月28日、米軍による「オペレーション・エピック・フューリー(Operation Epic Fury)」の初日、イラン南部ミーナーブ(Minab)にあるシャジャレ・タイエベ小学校が空爆を受け、7〜12歳の女児を中心に175〜180人が死亡した。
事件後、メディア報道を支配したのは「Anthropic製チャットボット『Claude』が標的を選定したのではないか」という疑惑だ。米議会は国防長官ピート・ヘグセスに書簡を送り、The New Yorker はClaudeが戦闘中に命令に従えるか、自己保存のために脅迫に訴える可能性はないか、といった問いを立てた。
しかしこれらの報道は、現実とほぼ無関係だった。
実際に使われたのは「Maven」
今回の標的選定を担ったのは、Maven(メイヴン) と呼ばれるシステムだ。衛星画像・信号情報・センサーデータを統合し、標的の初期探知から攻撃命令までを一貫して処理する軍事インフラである。
Mavenは8年前、シリコンバレーで激しい議論を呼んだプロジェクトだ。2018年、4,000人超のGoogle社員が「ペンタゴンの標的システムにAIを提供することへの反対」を訴える公開書簡に署名し、エンジニアたちは退職。最終的にGoogleはこの契約を断念した。その後、Peter Thielが共同創業したデータ分析・防衛テクノロジー企業 Palantir Technologies が引き継ぎ、以後6年をかけてMavenを現在の標的インフラへと育て上げた。
データベースの「更新忘れ」が悲劇を生んだ
被爆した建物はなぜ標的になったのか。CNNの報道によれば、国防情報局(DIA)のデータベースに「軍事施設」として登録されていたためだという。しかし、この建物は隣接する革命防衛隊施設から切り離されて小学校に転用されており、衛星画像の分析では少なくとも2016年までにはすでに学校になっていたことが確認されている。データベースは10年近く更新されていなかったのだ。
「チャットボットがあの子どもたちを殺したのではない。人間がデータベースの更新を怠り、別の人間たちがその失敗を致死的にするほど高速なシステムを構築した」——記事はこう結論づける。
LLM中心主義という「AIサイコシス」
イラン戦争が始まる頃には、Mavenのような実際の軍事AIシステムはインフラの「配管」に紛れ込み、議論の中心はClaudeに移っていた。著者はこれを「AIサイコシス」と呼ぶ。技術の推進派だけでなく、批判派もこの症状に等しく冒されているという。
科学技術研究者Morgan Amesが2019年の著書 The Charisma Machine で論じたように、特定の技術は注目・リソース・責任帰属を自らに引き寄せ、他のすべてを影に隠す「カリスマ性」を持つ。LLM(大規模言語モデル)はその最強の例かもしれない。「AI安全性」「アライメント」「ハルシネーション」「確率的おうむ返し」——こうした言葉がAIをめぐるあらゆる議論の枠組みを作り、「AI」そのものがいつの間にか「LLM」の同義語になってしまった。
日本への示唆
日本でも防衛省がAI活用の検討を進める中、今回の事案は重要な教訓を提示する。問われるべきは「チャットボットは暴走するか」ではなく、「データガバナンスは十分か」「自動化された意思決定を誰がどう監査するか」「責任の所在はどこにあるか」 だ。
劇的なAI暴走シナリオへの集中が、地味だが致命的なシステム設計の欠陥を見えにくくする——この構造的リスクは、軍事に限らずあらゆるAI導入の場面に共通する。
元記事: AI got the blame for the Iran school bombing. The truth is more worrying