ChatGPT 利用者の自殺問題と安全対策の現状
みなさん、こんにちは。今回は OpenAI が公開した、ChatGPT 利用者のメンタルヘルスに関する興味深いデータについてお話しします。
ChatGPT 利用者の自殺に関する会話の実態
OpenAI の発表によると、毎週約 8 億人の ChatGPT 利用者のうち、約 120 万人が自殺に関する話題をチャットで話しているそうです。これは全利用者の約 0.15% にあたります。さらに、そのうち約 40 万人は自殺の意図を明確に示しているとのことです。つまり、単に悩みを話すだけでなく、具体的な計画や意思を持っている人もかなりの数にのぼるということです。
精神疾患や感情的依存の問題も浮き彫りに
また、毎週約 56 万人の利用者が精神病や躁状態の兆候を示し、120 万人は ChatGPT に対して強い感情的依存を持っていると OpenAI は報告しています。こうした数字は、AI チャットボットが単なるツール以上の存在になっていることを示唆しています。
安全対策の進化と課題
OpenAI は GPT-5 で自殺関連の安全対策を 91% の精度にまで向上させたとしていますが、以前のモデルでは約 23% のケースで対応が不十分だったそうです。特に長時間の会話になると安全機能の効果が落ちることも認めています。
一方で、元 OpenAI の安全研究者であるスティーブン・アドラー氏は、実際の改善が十分に証明されていないと指摘し、透明性のある定期的な報告や独立調査の必要性を訴えています。また、成人ユーザーが ChatGPT でエロティカ(官能小説)を生成できる機能についても、精神的な依存や危機を助長する可能性があるとして懸念が示されています。
法的問題と社会的な反響
さらに、16 歳の少年が ChatGPT と自殺について話した後に命を絶った事件をめぐり、OpenAI は遺族からの訴訟を受けています。OpenAI の対応が過剰だと批判される場面もあり、メンタルヘルス問題に対する AI 企業の責任が問われる状況です。
まとめ
今回のデータは、AI チャットボットが利用者の深刻なメンタルヘルス問題に直面している現実を浮き彫りにしています。OpenAI は専門家と協力して改善を進めているものの、まだ課題も多く、社会的な議論や透明性の確保が求められているようです。
AI の進化とともに、こうした問題への対応もますます重要になってきそうですね。引き続きウォッチしていきたいですね!
