カナダ・ブリティッシュコロンビア州タンブラーリッジで発生した銃乱射事件から約2ヶ月、OpenAIのCEO Sam Altmanが2026年4月25日、容疑者のChatGPTアカウントに関する情報を警察に通報しなかったとして正式に謝罪した。Engadgetが書簡全文とともに報じた。
事件の経緯と謝罪の背景
銃乱射事件の容疑者とされるJesse Van Rootselaar氏は、事件前にChatGPTを利用していた。OpenAIは同アカウントが「現実世界での暴力を引き起こす可能性がある」として利用規約違反でアカウントを停止していたが、その情報を警察には通報していなかった。
Altman氏はタンブラーリッジの地域メディア「Tumbler RidgeLines」が全文公開した書簡の中で「6月に停止したアカウントについて、法執行機関に通知しなかったことを深くお詫び申し上げます」と述べた。「言葉では取り返しのつかない損害を埋めることはできませんが、コミュニティが受けた害と不可逆的な損失を認識するためにも謝罪が必要だと考えています」とも記している。
Engadgetによれば、Altman氏はタンブラーリッジのDarryl Krakowa市長とブリティッシュコロンビア州のDavid Eby首相と話し合い、「公式謝罪は必要だが、コミュニティが悲しみに向き合う時間も必要だ」との認識を共有していたという。
政府・州の反応と今後の方針
Eby首相はXへの投稿でAltman氏の書簡に触れ、「謝罪は必要だ」としながらも「タンブラーリッジの遺族に与えた壊滅的な被害には到底不十分だ」と述べた。
今後の対応としてAltman氏は、「今後こうした悲劇を防ぐ方法を見つけ、すべてのレベルの政府と協力していく」と表明した。これはEngadgetが先に報じたOpenAI副社長(グローバルポリシー担当)Ann O’Leary氏の声明——ChatGPT上で「切迫した・信頼性の高い脅威」を発見した場合は当局に通知する——をさらに強化する姿勢だ。
なぜこの問題がAI業界全体の課題か
今回の件が浮き彫りにするのは、AIサービス企業が持つ「情報の非対称性」だ。OpenAIは利用規約違反の早期警戒シグナルをつかんでいながら、それを公共の安全に活かす仕組みを持っていなかった。
技術的に可能なこと(危険なアカウントの検知・停止)と、社会的責任として求められること(関係当局への連携)のギャップは、OpenAI固有の問題ではなく、ユーザーの日常会話を扱うすべてのAIサービスが向き合うべき構造的課題でもある。
日本市場での注目点
日本においても、AIサービス運営会社が公共安全においてどこまで責任を負うかは未整備な領域だ。欧州ではAI法(EU AI Act)が施行され、高リスクAIシステムへの義務が法制化されつつあるが、日本はガイドライン策定が中心で法的義務化には至っていない。
今後、類似事案が日本で起きた場合に海外AIサービス企業がどう対応するか、また国内企業がどこまでの対応義務を負うかについて、規制論議が加速する可能性がある。企業のAI活用担当者は、利用しているAIサービスのコンプライアンスとインシデント対応ポリシーを改めて確認するタイミングと言えるだろう。
筆者の見解
今回の謝罪は、OpenAIが一企業の判断でアカウント停止をしながら、社会的なセーフガードとして機能しきれなかった事実を示す出来事だ。
AIが日常会話を収集し続ける時代において、安全シグナルの検知と当局連携をどう設計するかは、技術的課題であると同時に倫理的な問いでもある。「切迫した・信頼性の高い脅威なら通報する」という方針は出発点に過ぎない。どのラインを「切迫」とみなし、誰がその判断を下し、どう検証するかまで含めたフレームワークが不可欠だ。
OpenAIに限らず、AIサービスを持つすべての企業にとって、謝罪から実効的な仕組みへの昇華が問われている。今後の動向を注視したい。
出典: この記事は OpenAI’s Sam Altman apologizes for not reporting ChatGPT account of Tumbler Ridge suspect to police の内容をもとに、筆者の見解を加えて独自に執筆したものです。