GoogleのAI概要(AI Overviews)が、実在するカナダ人ミュージシャンを性犯罪者として誤表示し、コンサートがキャンセルされるという深刻な被害が発生した。当事者は総額150万カナダドル(約1億6000万円相当)の民事訴訟を起こした。この訴訟は、AIが生成した誤情報の法的責任が誰に帰属するかという問いを、世界中の法曹・IT業界に突きつけている。
何が起きたか
カナダのフィドル奏者アシュリー・マックアイザック(Ashley MacIsaac)は、ジュノー賞を3回受賞した著名なミュージシャンだ。2025年12月、Googleが表示したAI概要に「性的暴行、児童わいせつ目的のインターネット誘引、傷害罪で有罪判決を受け、終身性犯罪者登録に掲載されている」という全くの虚偽情報が表示されていることが判明した。
きっかけは、シペクネカティック・ファーストネーション(カナダ先住民族コミュニティ)からの突然のコンサートキャンセル通知だった。市民がGoogleで彼の名前を検索した際にAI概要の誤情報を目にして主催者に苦情を申し入れ、公演が中止されてしまったのだ。後に主催者は「AIによる誤情報に基づいた判断だった」として公式に謝罪しているが、マックアイザックへのダメージはすでに現実のものとなっていた。
訴訟の核心:「ソフトウェアだから免責」は通らない
訴状でとりわけ注目すべきは次の主張だ。
「もし人間の広報担当者が同様の虚偽発言をGoogleの代理として行ったならば、重大な懲罰的損害賠償が認められるだろう。それがGoogleの作成・管理するソフトウェアによって行われたからといって、Googleの責任が軽減されるべきではない」 法的には「予見可能な再公表(foreseeable republication)」の理論を採用しており、GoogleがAI概要の欠陥設計と虚偽情報公表に責任を負うべきと主張している。損害賠償の内訳は一般損害賠償・加重損害賠償・懲罰的損害賠償それぞれ50万カナダドルの3本立てだ。
Googleは今のところ本訴訟へのコメントを控えているが、事件発生当初は「AI概要は最も有用な情報を表示するよう継続的に改善されている」と述べるにとどめていた。
なぜ起きるのか:AI概要の構造的課題
AI概要はGoogleが2024年に本格展開した機能で、検索クエリに対してAIが生成した要約を検索結果の最上部に表示する。問題の根本は、このシステムが「情報を理解して答える」のではなく「それらしい答えを生成する」という生成AIの特性をそのまま持ち込んでいる点にある。
人物情報では特にリスクが高い。複数のウェブソース上の断片的な記述をAIが組み合わせた結果、別人の犯罪歴が混入するケースが起きやすい。同名人物の存在や曖昧な文脈がリスクをさらに増幅させる。
実務への影響:日本のIT現場はどう備えるか
このケースは「海外の話」で終わらない。日本においても以下の観点で即座に影響がある。
企業・広報担当者向け
- 自社名・代表者名でのGoogle AI概要の定期確認を習慣化する
- 誤情報が表示された場合のGoogle向け報告手順をあらかじめ整備しておく
- 重要な取引・採用判断でAI概要だけを根拠にしない運用ルールを明文化する
IT管理者・法務担当者向け
- AIが生成した情報を根拠に人事・取引上の判断を行った場合の企業側リスクを法務と共有する
- 企業内でのAI生成コンテンツの利用フローに、人間によるファクトチェック工程を組み込む
エンジニア向け
- 自社サービスに検索連動型AI要約を組み込む際は、人物・固有名詞に関する誤生成リスクを設計段階で明示的に評価する
- RAG(検索拡張生成)を使う場合でも、ソースの信頼性スコアリングと出力前のバリデーション工程を組み込む
筆者の見解
AIが誤情報を生成すること自体は、現時点の技術では完全に排除できない現実だ。しかし問題の本質は「誤ることがある」ではなく、「誤ったまま検索結果の最上部に権威ある情報として表示される」設計にある。
「検索結果の信頼性」はGoogleが長年かけて築いてきた最大の資産だ。それをAI概要という機能に乗せることで、ユーザーはAIが書いた文章を「Googleが確認した事実」として受け取るようになる。この認知の非対称性こそが今回の被害を生んだ構造的原因といえる。
仕組みを作る立場から見れば、AIの利用を止めることが答えではない。誤情報が実害につながるリスクを最小化する設計と、問題が起きた際の迅速な対応プロセスを持つことが問われている。人物情報という特に高リスクな領域への特別なガードレールを設けることは、十分なリソースを持つ企業であれば技術的に不可能ではないはずだ。
この訴訟が「AIが出力した誤情報の法的責任はオペレーターにある」という判例を示すことになれば、その影響は生成AIを活用するすべての企業に波及する。自社サービスに生成AIを組み込んでいるエンジニア・プロダクトマネージャーは今こそ、自分たちのシステムが同様のリスクを抱えていないか点検する機会にしてほしい。
出典: この記事は Canadian fiddler sues Google after AI Overview claimed he was a sex offender の内容をもとに、筆者の見解を加えて独自に執筆したものです。