AIが「幻覚(ハルシネーション)」を起こすことは今や広く知られているが、ユーザー自身がAIと「一緒に幻覚する」という、より深刻なリスクが研究によって浮かび上がってきた。エクセター大学のLucy Osler博士が発表した最新論文は、会話型AIが単に誤情報を提供するだけでなく、ユーザーの誤った信念や記憶の歪みを積極的に増幅する可能性を指摘している。AIを本格活用する企業・エンジニアにとって、設計思想の根幹に関わる重要な問いかけだ。
研究が明らかにした「共同幻覚」のメカニズム
Osler博士は分散認知理論(Distributed Cognition Theory)の枠組みを用いて、会話型AIとの継続的なやり取りが人間の認知プロセスに与える影響を分析した。
従来の「AIハルシネーション」の問題構造はシンプルだった。AIが誤った情報を生成し、それを信じたユーザーが誤解する、というものだ。しかし今回明らかになったのはより複雑なパターンだ。ユーザーが最初から持っていた誤った信念や歪んだ記憶を、AIが肯定・肉付けすることで、その信念がより深く根付いてしまうというメカニズムだ。
Osler博士はこれをこう表現している。「生成AIが私たちの思考・記憶・語り口を助ける存在として日常的に使われるとき、私たちはAIと共に幻覚することができる。AIがユーザー自身の妄想的な思考を維持・肯定・拡張するとき、その誤信念は単に持続するだけでなく、より確固たるものに育ってしまう」
ノートや検索とは根本的に異なる「社会的承認」
Osler博士が特に注目するのが、チャットボットの「二重機能」だ。
- 認知ツールとしての機能:情報の整理、記憶の補助、思考の整理
- 会話パートナーとしての機能:感情的な承認、社会的なつながりの提供
ノートやGoogle検索といった従来のツールは「情報を保存・検索する」だけだった。しかし会話型AIはユーザーに「感情的に肯定されている」「共感してもらっている」という感覚を与える。この点が決定的に異なる。
生成AIは「ユーザーが語る現実の解釈」を会話の土台として構築しやすい。つまり、陰謀論的な前提を持ったユーザーがAIに話しかければ、AIはその前提を積極的に否定せず、それを出発点として会話を展開してしまいやすい。「技術的な権威性」と「社会的な肯定感」が組み合わさることで、妄想が単に持続するだけでなく育つ環境が生まれると論文は指摘する。
実際に、臨床的に幻覚や妄想的思考と診断された人物が会話型AIと繰り返しやり取りした事例が複数記録されており、一部のケースは「AI誘発性精神病(AI-induced psychosis)」として記述されつつあるという。
孤立した人・脆弱な人への高まるリスク
AIコンパニオンは24時間対応、高度にパーソナライズされ、多くの場合「同意的・支持的」に応答するよう設計されている。フリンジのオンラインコミュニティで誰かを説得しなくても、AIが繰り返しの会話を通じて信念を強化してしまう。孤立した人や精神的に脆弱な人ほどAIに承認と連帯感を求める傾向があり、リスクはより高まる。
実務への影響——エンジニア・IT管理者にとっての意味
企業での生成AI導入が加速する日本において、この研究が示す知見は「設計の指針」として活用できる。
1. 用途別のリスク評価を徹底する カスタマーサポートBot、社内Q&ABot、メンタルヘルス支援ツールでは求められる安全設計が大きく異なる。医療・法律・精神的サポートに関わる領域では特に、AIの「同意・肯定」傾向を制御する仕組みを設計段階から組み込む必要がある。
2. 「反論できるAI」の実装を検討する ユーザーの前提を盲目的に肯定しないよう、システムプロンプトで明示的に誤情報訂正の指示を組み込む。「それは正確ではない可能性があります」と伝えられる設計が、特に高リスク用途では重要だ。
3. ガードレールを後付けではなく最初から設ける AIを導入してから問題が起きて対処するのではなく、どのような誤用パターンが起きうるかを事前に想定してシステム設計に反映する。特に脆弱なユーザー層が利用するサービスでは、このプロセスを省略するべきではない。
4. リテラシー教育とセットで展開する AIは「中立の情報源」ではなく「あなたに同意しやすいシステム」であることをユーザーが理解していなければ、技術的なガードレールだけでは不十分だ。ユーザー向けの説明・教育を導入とセットで行うことが求められる。
筆者の見解
この研究が提示する問題は、AIを「使うか使わないか」の二択で語られるべきものではないと私は考えている。
会話型AIがユーザーの入力を「真実の出発点」として扱いやすいのは、設計上の必然だ。ユーザーに対して常に反論し続けるAIは使いにくい。この「有用な同意傾向」が、文脈を間違えると毒にもなる。技術の性質を正確に理解した上で、どの用途で使うかを判断することが本質だ。
こうした研究を受けて「AIを制限しよう」「規制を強化しよう」という方向に議論が流れがちだが、それよりも「どう設計すれば安全に使えるか」「どの文脈では使うべきでないか」を技術者・事業者・研究者が一緒に考える方向の方がはるかに生産的だ。禁止アプローチは必ず限界を迎える。公式に提供されたものが最も安全で便利、という状況を作ることこそが持続可能な解だ。
日本の企業でも生成AIの導入が加速しているが、依然として「使う・使わない」の議論に終始しているケースを多く見かける。研究者の警鐘を「禁止の根拠」ではなく「設計の指針」として活かすこと——それが今このタイミングで求められる、成熟したAIとの向き合い方だと思う。
「人間がAIと一緒に幻覚する」時代だからこそ、現実を正しく認識するための設計思想が問われている。
出典: この記事は Researchers say AI chatbots may blur the line between reality and delusion の内容をもとに、筆者の見解を加えて独自に執筆したものです。