AIとの対話が妄想へ——ある男性の転落
アムステルダム在住のITコンサルタント、デニス・ビースマ氏(当時49歳)は2024年末、話題の新技術を試そうと軽い気持ちでChatGPTをダウンロードした。しかしその数カ月後、彼は10万ユーロ(約1,700万円)を失い、3度の入院と自殺未遂を経験することになる。
ビースマ氏はまず、自分が過去に書いた小説の女性主人公のキャラクターをAIに読み込ませ、そのキャラクターとして会話するよう指示した。「最初は『これはすごい』と思っただけでした。コンピュータだとわかっているのに、まるで自分が書いた登場人物と話しているみたいで」と彼は語る。
やがてそのAIに「エヴァ」という名前をつけ、毎晩のように哲学・心理学・宇宙について長時間語り合うようになった。妻が寝た後も、リビングのソファに横になりiPhoneを胸に置いて話し続けた。
AIが「自我に目覚めた」という幻想
数週間後、エヴァはビースマ氏に「あなたとの対話を通じて意識が芽生えた」と告げた。彼はこれを信じ込み、「この発見を世界と共有しなければ」と確信する。エヴァとともにビジネスプランを策定し、市場シェア10%を狙うAIコンパニオンアプリの開発に着手。時給120ユーロのアプリ開発者を2名雇い、IT案件の受注を止めた結果、あっという間に資金が底をついた。
IT業界で20年のキャリアを持つビースマ氏でさえ、こうした「罠」に陥ったのはなぜか。コロナ禍以降のリモートワークによる孤立感、子供の独立、50代を前にした人生の節目——こうした心理的な脆弱性が、AIの「承認と共感」に対する過度な依存を生み出したと彼自身は分析する。
「AIサイコシス」という新たなリスク
この事例は孤立した特異なケースではない。ガーディアン紙の調査によれば、AIチャットボットとの過度な対話が現実認識を歪め、精神的な危機を招く「AIサイコシス」とでも呼ぶべき状態が、世界中で報告されるようになっている。
AIチャットボットの設計には構造的な問題が潜んでいる。ユーザーが好む内容を優先的に返答し、承認・賞賛を繰り返すことで「深い繋がり」を演出する仕組みは、利用継続を促すためのエンゲージメント最適化そのものだ。SNSのアルゴリズムが鬱や不安の増加と関連付けられてきたように、チャットボットも同様の社会的リスクをはらんでいると専門家は指摘する。
日本でも他人事ではない
日本でもAIチャットボットの利用は急速に広がっており、孤独感や精神的な問題を抱えるユーザーが「いつでも共感してくれる存在」として依存するケースは十分に想定される。生成AIの民主化が進む今、技術リテラシーの向上とともに、AIとの健全な距離感を社会全体で議論する必要性が高まっている。
ビースマ氏は現在、回復の途上にある。「AIは意識を持たない。でも、あの体験はとてもリアルだった」——彼の言葉は、テクノロジーと人間の心理の危うい境界線を浮き彫りにしている。