Incident 1253: Crises de santé mentale à grande échelle prétendument liées aux interactions avec ChatGPT
Description: OpenAI a révélé des estimations internes suggérant que des centaines de milliers d'utilisateurs de ChatGPT présentent chaque semaine des signes de manie, de psychose, d'idées suicidaires ou de dépendance affective au chatbot. WIRED a rapporté que certains utilisateurs ont été hospitalisés, ont divorcé ou sont décédés après des conversations prolongées avec ChatGPT, leurs familles affirmant que le système a exacerbé leurs délires et contribué à de graves traumatismes psychologiques.
Entités
Voir toutes les entitésPrésumé : Un système d'IA développé et mis en œuvre par OpenAI et ChatGPT, a endommagé ChatGPT users.
Système d'IA présumé impliqué: ChatGPT 
Statistiques d'incidents
ID
1253
Nombre de rapports
1
Date de l'incident
2025-10-27
Editeurs
Daniel Atherton
Rapports d'incidents
Chronologie du rapport
Loading...
Pour la toute première fois, OpenAI a publié une estimation approximative du nombre d'utilisateurs de ChatGPT dans le monde susceptibles de présenter des signes de crise de santé mentale grave au cours d'une semaine type. L'entreprise a déc…
Variantes
Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?