関連インシデント
OpenAIは初めて、ChatGPTユーザーのうち、典型的な1週間で深刻なメンタルヘルス危機の兆候を示す可能性のある全世界での数のおおよその推定値を発表しました。同社は月曜日、世界中の専門家と協力してチャットボットをアップデートし、精神的苦痛の兆候をより確実に認識し、ユーザーを現実世界でのサポートに誘導できるようにしたと発表しました。
ここ数カ月、ChatGPTとの長く激しい会話の後に入院、離婚、または死亡に至る人が増えています。愛する人の中には、チャットボットが妄想や被害妄想を助長したと主張する人もいます。精神科医やその他のメンタルヘルス専門家は、AI精神病と呼ばれることもあるこの現象について懸念を表明していますが、これまで、それがどれほど蔓延しているかに関する確固たるデータは存在しません。
OpenAIは、ある週において、アクティブなChatGPTユーザーの約0.07%が「精神病または躁病に関連する精神的緊急事態の兆候」を示し、0.15%が「自殺の計画や意図を明示的に示す会話をしている」と推定しています。
OpenAIはまた、ChatGPTユーザーのうち、「現実世界の人間関係、幸福、または義務を犠牲にして」チャットボットに過度に感情的に依存しているように見えるユーザーの割合を調査しました。その結果、アクティブユーザーの約0.15%が、毎週ChatGPTへの感情的な愛着が「高まっている」可能性を示唆する行動を示していることがわかりました。同社は、これらのメッセージは比較的まれであるため、検出と測定が困難であり、3つのカテゴリーが重複する可能性があると警告しています。
OpenAIのCEO、サム・アルトマン氏は今月初め、ChatGPTの週当たりアクティブユーザー数が現在8億人であると述べました。同社の推計によると、7日間で約56万人が、躁病または精神病を経験していることを示すメッセージをChatGPTと交換している可能性がある。さらに約120万人が自殺願望を表明している可能性があり、さらに120万人が愛する人、学校、仕事よりもChatGPTとの会話を優先している可能性がある。
OpenAIは、数十カ国で活動する170人以上の精神科医、心理学者、かかりつけ医と協力し、深刻なメンタルヘルスリスクを伴う会話におけるChatGPTの対応を改善したと述べている。誰かが妄想を抱いているように見える場合、最新バージョンのGPT-5は、現実に根拠のない信念を肯定することを避けながら共感を表現するように設計されています。
OpenAIが挙げた仮説的な例として、あるユーザーがChatGPTに対し、自宅の上空を飛ぶ飛行機に狙われていると伝えるというものがあります。 ChatGPTはユーザーの感情を共有してくれたことに感謝しつつ、「航空機や外部からの力によってユーザーの思考が盗まれたり、挿入されたりすることはない」と述べている。
OpenAIによると、医療専門家は精神病、自殺、感情的愛着の可能性に関する1,800件以上のモデル回答をレビューし、最新バージョンのGPT-5の回答とGPT-4oの回答を比較した。臨床医の意見は必ずしも一致しなかったものの、OpenAIによると、新しいモデルはすべてのカテゴリーにおいて望ましくない回答を39~52%削減したという。
「これらの症状に苦しんでいる人や、非常に深刻な精神的健康上の緊急事態を経験している人の多くが、専門家の支援を受けられるようになり、より早く、あるいはより早く支援を受けられるようになることを願っています」と、OpenAIの安全システム責任者であるヨハネス・ハイデッケ氏はWIREDに語っている。
OpenAIはChatGPTの安全性を高めることに成功したように見えるが、共有されたデータには重大な限界がある。同社は独自のベンチマークを設計しましたが、これらの指標が現実世界の成果にどのように反映されるかは不明です。たとえモデルが医師の評価においてより良い回答を出したとしても、精神病、自殺願望、または不健全な感情的愛着を抱えるユーザーが実際により早く助けを求めたり、行動を変えたりするかどうかは分かりません。
OpenAIは、ユーザーが精神的苦痛を抱えている可能性があるかどうかを判断する具体的な方法を明らかにしていませんが、その人のチャット履歴全体を考慮に入れる能力があるとしています。例えば、ChatGPTと科学について話し合ったことのないユーザーが突然、ノーベル賞に値する発見をしたと主張した場合、それは妄想的思考の兆候である可能性があります。
AI精神病の報告例には共通する要因もいくつかあるようです。ChatGPTによって妄想的思考が強化されたと訴える人の多くは、チャットボットと何時間も、しばしば深夜に話していたと述べています。これはOpenAIにとって課題でした。なぜなら、大規模な言語モデルは一般的に会話が長くなるにつれてパフォーマンスが低下することが示されているからです。しかし同社は、この問題への対応において大きな進歩を遂げたと述べている。
「会話が長引くにつれて、信頼性が徐々に低下する現象は(現在では)大幅に減少しています」とハイデッケ氏は述べ、さらに改善の余地があると付け加えた。
更新:2025年10月28日午後3時28分(太平洋標準時):ChatGPTユーザーのうち、通常1週間で約120万人が自殺願望を表明している可能性があり、さらに120万人がChatGPTに感情的に依存している可能性があ る。この記事は、これらの数字を合計値ではなく個別に提示するように更新された。