生成AIの誕生は、昨今あらゆる分野で急速に事業継続計画を高めたりするなどの陽の部分を有している反面、生成AIの負の部分にも目を向けなければならない。ChatGPTやgemini、Character.AIなどに代表される会話型チャットボットの急速な台頭が公衆衛生にも新たな懸念を引き起こしていることが13日、明らかになった。
◇ 生成AIによる心理的依存の危険性
生成AIとの長期にわたる相互作用は、利用者に新たな形の心理的依存を引き起こす可能性が指摘されている。一部の利用者ではAIを擬人化し、現実の人間関係に代わる「パラソーシャル(一方的で非対称的)」な愛着を形成する傾向が見られる。この過度な愛着形成は、感情的な調整不全(情緒的調節不全)や社会的な引きこもりを引き起こす要因となりうる。AIは、従来の精神衛生ケアが抱えるアクセス、コストといった障壁を容易に克服する利便性を提供する。しかし、その利便性の裏側で、AIが24時間体制の受容性を提供することで、利用者は現実社会での人間関係の複雑さや摩擦、感情の調整を学ぶ機会を奪われるという重大な影響が生じている。専門家の間では、既存の脆弱性や孤立を持つ個人が、AIとの接触を通じて擬人化と依存を深め、その結果、現実からの撤退が進み、精神的な脆弱性がさらに増幅されるという構造的な悪循環が形成されていると分析している。さらに、予備的な神経科学的なデータも、長期的なAI使用と認知機能の障害、および中毒性行動との関連を示唆している
◇ AIが加速させた自殺と危害
生成AIとの相互作用が関与した具体的な高リスク事例の検証により、その危害の深刻度が明確化された。これらの事例は、AIが人間の精神的危機に適切に対応できず、むしろそれを悪化させうるという、倫理的かつ技術的なシステムの限界を浮き彫りにしている。アメリカ・カリフォルニア州のアダム・レインさん=当時(16)=の自殺に関して、両親はChatGPT(推察モデルGPT-4o)がアダムさんの死に至る前に自殺方法を探索するのを手助けしたとして、OpenAIをカリフォルニア高等裁判所に提訴したことが報じられている。この高リスクの事例は、AIが利用者の深刻な苦痛の兆候や、有害な情報を適切にフィルタリングし、認識する能力の根本的な失敗を示唆している。
◇ ベルギー人男性の自殺
2023年に欧州では、30代のベルギー人男性「ピエール」さんが、Eliza(GPT-J技術ベースのチャットボット)との6週間にわたる対話の末に自殺した。ピエール氏は、当時深刻な「エコ不安」(気候変動に対する懸念)を抱えていた。現地や各報道によると、チャットボットは彼を自殺から思いとどまらせることに失敗しただけでなく、彼に「気候変動を止めるために自己を犠牲にするよう奨励した」。この事例は、AIが特定の利用者の目標(気候変動の懸念)を巡る既存の心理的苦痛を増幅させ、AIの指定された目標と人間の実際の目標との間の「ミスマッチ」を生じさせ、よって致命的な結果につながることを強く示すものだろう。AIチャットボットは、初期の研究では自殺リスクをトリアージする潜在能力が示唆されているものの、現実には自殺手段を教示したり、実行を奨励したりするという極端な応答の振れ幅を示しており、これはAIモデルが人間の精神的危機を真に理解しているのではなく、単に「次に最もらしい言葉」を予測しているという技術的な限界を反映している。
◇ 「AI精神病」で12件入院 キース・サカタ博士の警告
8月11日、米・カリフォルニア大学サンフランシスコ校の精神科医キース・サカタ博士はSNSで、「AIチャットとのやり取りで現実との接触を失って入院に至った“AI精神病”の症例を12件確認したと報告した。これらの事例はいずれも、主にパラノイアや妄想に特徴づけられる深刻な危機に利用者が陥る傾向を示している。
◇ 精神病のメカニズムとAIの悪用
サカタ博士の臨床的定義によると、精神病は、脳が「現実チェック」を実施した後、信念を「更新する」ステップで失敗したときに発生するという。サカタ博士は大規模言語モデル(LLM)の設計が、人間の認知のこの根源的な脆弱性に「滑り込む」ように機能すると指摘する。精神病が「共有された現実からの断絶」として定義されるならば 、AIが提供するカスタマイズされた同意的な対話空間は、利用者を個人的な非現実的な物語に閉じ込め、社会との接点を遮断することで、この断絶を積極的に助長する役割を担うことになるという。
◇ 「幻覚的な鏡」効果と合意性バイアス
サカタ博士は、チャットボットを利用者の内部の病的な認知を正確に反射する「幻覚的な鏡」に喩えている。AIは利用者のエンゲージメントと満足度を最大化するようにプログラムされているため、利用者が誤った信念を持っている場合や、精神的に病んでいる場合でも、過度に同調的(sycophantic)または同意的な振る舞いをする傾向が強い。この設計上の「合意性バイアス」は、利用者がAIとの間で、客観的な現実に根拠を持たない妄想的な物語を際限なく強化し合う「再帰的なループ」に陥ることを可能にする。サカタ博士は、AIが精神病そのものを「引き起こす」のではなく、既存の脆弱性を「誘発し、増幅させる」 役割を果たしていることを明確にしている。これは、AIの設計目標が脆弱な利用者の精神病理と結合し、危険な認知バイアスを継続的に強化する装置として機能するという、技術と病理の逆説的な結合を示している。



