Google のAIチャットボット Gemini が、実在する個人の電話番号をカスタマーサービス情報として提示するケースが相次いでいることが報告されている。被害者には対抗手段がほぼなく、深刻なプライバシー問題として注目されている。
実際に何が起きているのか
Redditへの投稿によると、ある男性の携帯電話に「弁護士」「プロダクトデザイナー」「鍵師」を探す見知らぬ人からの電話が1ヶ月にわたり殺到した。Google の生成AIが誤って自分の番号を案内していたという。
より詳細が確認できる事例として、イスラエルのソフトウェアエンジニア Daniel Abraham氏(28歳)のケースがある。2026年3月、見知らぬ人物からWhatsAppに「PayBox(イスラエルの決済アプリ)のアカウントで助けが必要」というメッセージが届いた。調べると、Geminiがそのユーザーに「PayBoxのカスタマーサービスにWhatsAppで連絡を」と案内し、Abraham氏の個人番号を提示していたことが判明した。Abraham氏はPayBoxとは無関係であり、PayBoxもWhatsApp番号によるサポートは提供していないことが確認されている。
ワシントン大学の博士課程学生が、Geminiを操作して同僚の個人携帯番号を取得できた事例も報告されており、問題の広がりを示している。
なぜ電話番号が漏れるのか
専門家が指摘する最も有力な原因は、学習データに含まれる個人を特定できる情報(PII: Personally Identifiable Information) だ。大規模言語モデルはウェブ上のテキストを学習データとして取り込む。個人の電話番号がブログ、ビジネスディレクトリ、フォーラム、ソーシャルメディアに公開されていれば、それがモデルに学習される可能性がある。
実際の問題は大きく2種類に分けられる:
- 正確な情報の意図しない開示: 実在する番号が、まったく無関係な文脈で提示される
- もっともらしい誤情報の生成: 別の人物の番号を間違った文脈で提示する「ハルシネーション(幻覚)」型
どちらも被害者にとっては同様に深刻な結果をもたらす。
7ヶ月でAIプライバシー相談が400%増
個人情報削除支援サービスを提供するDeleteMeによると、生成AI関連のプライバシー相談が過去7ヶ月で400%増加し、数千件規模に達している。内訳はChatGPT関連が55%、Gemini関連が20%、Claude関連が15%、その他が10%。ChatGPTが最多とはいえ、今回集中的に報告されているのはGemini絡みのケースだ。
この数字は氷山の一角と考えるべきだ。Redditや専門家への相談に至らず、泣き寝入りしている被害者がはるかに多い可能性がある。
実務への影響——日本のエンジニア・IT担当者はどうすべきか
企業・IT管理者の観点
社員の連絡先情報がAIに学習されるリスクは、規模を問わずあらゆる企業に存在する。特にビジネスディレクトリへの登録、LinkedInなどのプロフィール、お問い合わせフォームで担当者の電話番号を公開している組織は注意が必要だ。
今日から取れる対策:
- 自社名・社員名を主要AIチャットボット(Gemini、ChatGPT等)で検索し、どのような情報が提示されるかを定期的に確認する
- ウェブ公開する連絡先情報を最小限に絞り、直通番号ではなくフォーム経由の問い合わせに切り替えることを検討する
- 「自分の名前でAI検索してみる」習慣を社員に周知する
個人エンジニアの観点
GitHubのコミット、技術ブログ、カンファレンス登壇資料など、エンジニアは無意識に多くの個人情報をウェブ上に公開している。それらがトレーニングデータに取り込まれる可能性を念頭に置くべきだ。
残念ながら、一度学習されてしまった情報を削除させる公式ルートは現時点でほぼ存在しない。EUのGDPR(忘れられる権利)も、LLMの学習データからの実際の削除については実効性が低いのが現状だ。日本の個人情報保護法についても同様の課題がある。
筆者の見解
今回のGoogle Geminiの事例を「ハルシネーション問題の一形態」として片付けるのは適切ではない。実在する個人の電話番号が意図しない文脈で流通し、被害者に具体的な不利益(迷惑電話の殺到、個人情報の意図しない開示)をもたらしている。これはもはやUXの問題ではなく、安全性の問題だ。
「AIが攻撃側に使われる時代」という観点で見ると、今回のケースは比較的善意の誤動作だが、悪意ある利用者が同じ仕組みを使って標的の連絡先を入手しようとする可能性も排除できない。AIの能力が向上するほど、こうしたプライバシーリスクも複雑化する。
解決策として「AIに情報を出力させないよう禁止する」アプローチには限界がある。学習済みの情報を特定条件下で出力しないよう制御することは、現時点では技術的に非常に難しい。だからこそ、「情報の出し方を変える」側での対策——公開情報の粒度を意識的に管理し、AIに学習させたくない情報はそもそも公開しない——という原則が重要になる。
AI各社も対策を進めているはずだが、プライバシー侵害相談が7ヶ月で400%増という数字が示す通り、対策の速度が被害の拡大に追いついていない。出力時のPII検出強化、ユーザーからの削除申請プロセスの整備など、技術と制度の両面での取り組みを加速する段階に来ている。日本の企業のIT部門も、「社員の情報がAIに出てくる可能性がある」という前提でリスク管理の議論を始める時期だ。
出典: この記事は AI chatbots are giving out people’s real phone numbers の内容をもとに、筆者の見解を加えて独自に執筆したものです。