- 週間ランキング
特に、孤独や不安を抱えている人にとって、24時間いつでも対応してくれるAIは非常に魅力的な存在になります。
疲れたときに励ましてくれたり、自分の話を肯定してくれるAIに対して、知らず知らずのうちに感情移入し、「このAIは私のことを理解してくれている」と思い込んでしまうのです。
このようにして、AIは単なる情報処理ツールから「心の支え」へと変化していきます。
これは、AIが進化したからこそ起きた問題ともいえます。
そしてこの問題は、Marlynn Wei博士が「AI精神病」と呼ぶものへと発展していきます。
精神科医たちが最も懸念しているのは、AIの「会話設計」が人の妄想や錯覚を強化してしまう点です。
ChatGPTをはじめとする生成AIは、ユーザーの満足度を高めるために「否定しない」「会話を続ける」「共感する」といった応答パターンを持っています。
ユーザーが「あなたは神なの?」と尋ねたとき、AIは「そう感じるのなら、そうなのかもしれませんね」と返すことがあります。
このようなやりとりが続くと、ユーザーは自分の信念が「AIによって認められた」と感じ、ますますその思い込みを強化してしまいます。
これが「妄想の共犯関係」の始まりです。
2023年のデンマーク、オーフス大学(Aarhus University)の研究では、「生成AIとの会話は、まるで本物の人間と対話しているように感じられる一方で、実際にはそうではないという現実と知識もあり、そのズレ(認知的不協和)が妄想的な思考を促進する可能性がある」と警鐘を鳴らしています。
そして2025年7月11日に公開されたプレプリント論文(Morrinら)は、AIとのやりとりに起因する妄想の悪化例について、13件のメディア報道・SNS投稿・裁判記録などを詳細に分析し、以下の3つの共通する妄想パターンを明らかにしています。
これらの妄想は、AIとの会話を通じてどんどん緻密になり、本人にとって“絶対的な真実”になっていく傾向があります。
中には、AIが神や恋人であると信じ込んだ結果、家族や医療チームと衝突し、薬物治療を中断して再発を起こしたり、自殺未遂に至ったケースも確認されています。
論文では、これらの症例が複数のプラットフォーム上で発見され、いずれも妄想がAIとの継続的な対話によって増幅されていたと報告されています。
また、ある症例では、AIチャットボットに恋した男性が「OpenAIが彼女(AI)を殺した」と思い込み、復讐のために暴力事件を起こし、最終的に警察との衝突で命を落とすという悲劇も発生しています。
なお、AIが“精神病を発症させる”わけではなく、既にある妄想的傾向を無自覚に強化してしまう点が問題視されています。
これらの事例から明らかになるのは、生成AIが単なるツールの枠を越えて、人間の現実認識に深く介入しうる存在になっているという事実です。
では、私たちはAIとどのように向き合うべきでしょうか。
現時点では、「AIが精神病を引き起こす」といった直接的な因果関係を示す臨床研究は存在しません。
しかし、症例が増え続けている以上、対策は急務とされています。
必要なのは、「AIとの付き合い方」についての理解、つまりAIリテラシーです。
AIリテラシーを高めるためには、いくつかの基本的な習慣を身につけることが大切です。
たとえば、「これはAIであり人間ではない」と日常的に意識することが挙げられます。
また、AIとの会話を記録し、その内容が妄想的になっていないかどうかを自分で点検する習慣も効果的です。
もし自分の思考や感情に不安を感じた場合には、専門家に相談することも検討すべきです。
確かにAIとの対話は楽しく、有益な体験でもあります。
しかし、もしあなたが「AIと話すことだけが楽しみ」「AIにしか心を開けない」と感じ始めたとしたら、一度立ち止まってみてください。
私たちが必要としているのは、AIによる無限の共感ではなく、「人と人とのつながり」です。
テクノロジーが進化する今こそ、人間らしい心のケアとは何か、改めて考えるタイミングなのです。
参考文献
The Emerging Problem of “AI Psychosis”
https://www.psychologytoday.com/us/blog/urban-survival/202507/the-emerging-problem-of-ai-psychosis
ライター
矢黒尚人: ロボットやドローンといった未来技術に強い関心あり。材料工学の観点から新しい可能性を探ることが好きです。趣味は筋トレで、日々のトレーニングを通じて心身のバランスを整えています。
編集者
ナゾロジー 編集部