カナダ連邦選挙を報じた記事で、世界屈指の信頼性を誇るニューヨーク・タイムズ(NYT)が思わぬ失態を演じた。保守党党首ピエール・ポワリエーヴル(Pierre Poilievre)に帰属させた発言が、実際にはAIツールが生成した「要約」をそのまま引用文として掲載したものだったと判明。編集部が訂正注記を公表し、改めて記事を修正した。

何が起きたのか

NYTがカナダ選挙に関する記事を掲載した際、ポワリエーヴル党首の発言として引用した一節が、取材者がAIツールに問い合わせた結果返ってきた「要約文」そのものだったことが発覚した。AIは彼の政治的見解を要約した上で、あたかも実際の発言であるかのような引用形式で出力していた。

編集部の訂正注記には「記者はAIツールが返した内容の正確性を確認すべきだった」と明記されている。実際の4月の演説では、ポワリエーヴル氏は他党に鞍替えした政治家を「裏切り者(turncoat)」と呼んだ事実はなかった。AIが「彼ならこう言いそう」と生成した文言が、そのまま世界的な報道に乗ってしまったのだ。

ハルシネーションとは何か、なぜ怖いのか

大規模言語モデル(LLM)が事実ではない内容を自信満々に生成する現象を「ハルシネーション(幻覚)」と呼ぶ。今回のケースで特に注目すべきは、単純な誤情報ではなく「それらしい要約を引用形式にしてしまう」という点だ。

LLMは確率的に「次のトークン」を予測する仕組みで動いている。人物の発言を要約するよう求めると、その人物がこれまで発言してきた内容のパターンから「言いそうなこと」を生成する。それは事実に近い場合もあるが、実際の発言とは別物だ。最悪のケースでは、今回のようにカギカッコで囲まれた「引用文」として出力される。人間の目には「ちゃんと引用している」ように見えてしまう。

実務への影響

この事案は、AIツールを業務に組み込んでいる日本のエンジニアやIT管理者にとっても他人事ではない。社内ドキュメント、プレスリリース、顧客向け提案書、技術仕様書——あらゆる場面でAIが文章生成を支援するようになった今こそ、使い方のルール整備が急務だ。

明日から使えるチェックポイント:

  • 一次情報に当たる: AIの出力は必ず原典で検証する。特に人物の発言・数値・固有名詞は要注意
  • 引用形式の出力を疑う: AIが「〇〇氏はこう述べた」と出力しても、それが実際の引用かどうかは人間が確認する
  • ワークフローに検証ステップを組み込む: 個人の心がけではなく、チームのプロセスとして「AI出力のファクトチェック」を標準化する
  • AIに「確認済みか?」と問い返さない: AIは確認できていなくても「はい」と答えることがある。検証は人間が行う

筆者の見解

AIツールの普及スピードは、人間側の「使いこなし作法」の整備を完全に追い越してしまっている。NYTのようなプロ集団でさえこの失敗を犯したという事実は重い。

とはいえ、これをAI禁止の根拠にするのは間違った結論だ。包丁で人を傷つけることができるからといって料理人が包丁を使わないわけではない。重要なのは「どう使うか」の設計だ。

AIは膨大な情報を高速に処理し、文章のドラフトを瞬時に作る。しかし「事実の確認」「文脈の判断」「責任の所在」は依然として人間が担うべき領域だ。AIを活用して生産性を上げるほど、人間が担うべきレビューと判断の質も相対的に重要になる。

「禁止するのではなく、安全に使える仕組みを作る」——これがAI時代のIT管理者・チームリーダーに求められる本質的な問いだと思う。今回の事案は、その仕組み設計が追いついていなかった典型例として、長く語り継がれるだろう。AIを現場に取り入れるすべての組織が、今すぐ自分たちのワークフローを見直すべき事案だ。


出典: この記事は Quoting New York Times Editors’ Note の内容をもとに、筆者の見解を加えて独自に執筆したものです。