Incidents associés
Pour la toute première fois, OpenAI a publié une estimation approximative du nombre d'utilisateurs de ChatGPT dans le monde susceptibles de présenter des signes de crise de santé mentale grave au cours d'une semaine type. L'entreprise a déclaré lundi avoir collaboré avec des experts du monde entier pour améliorer le chatbot et lui permettre de mieux reconnaître les indicateurs de détresse psychologique et d'orienter les utilisateurs vers une aide concrète.
Ces derniers mois, un nombre croissant de personnes ont été hospitalisées, ont divorcé ou sont décédées après avoir eu des conversations longues et intenses avec ChatGPT. Certains de leurs proches affirment que le chatbot a alimenté leurs délires et leur paranoïa. Les psychiatres et autres professionnels de la santé mentale s'inquiètent de ce phénomène, parfois appelé « psychose liée à l'IA », mais jusqu'à présent, aucune donnée fiable n'était disponible sur son ampleur.
OpenAI estime qu'environ 0,07 % des utilisateurs actifs de ChatGPT présentent chaque semaine des « signes potentiels d'urgence psychiatrique liés à la psychose ou à la manie » et que 0,15 % « ont des conversations contenant des indicateurs explicites de pensées ou d'intentions suicidaires ».
OpenAI a également étudié la proportion d'utilisateurs de ChatGPT qui semblent être excessivement dépendants émotionnellement du chatbot, « au détriment de leurs relations dans la vie réelle, de leur bien-être ou de leurs obligations ». L'étude a révélé qu'environ 0,15 % des utilisateurs actifs présentent chaque semaine un comportement indiquant un potentiel « niveau accru » d'attachement émotionnel à ChatGPT. L'entreprise souligne que ces messages peuvent être difficiles à détecter et à mesurer compte tenu de leur relative rareté, et qu'il pourrait y avoir un certain chevauchement entre les trois catégories.
Le PDG d'OpenAI, Sam Altman, a déclaré en début de mois que ChatGPT compte désormais 800 millions d'utilisateurs actifs hebdomadaires. Les estimations de l'entreprise suggèrent donc que chaque semaine, environ 560 000 personnes échangeraient des messages avec ChatGPT indiquant qu'elles traversent une phase maniaque ou psychotique. Environ 1,2 million d'autres exprimeraient possiblement des idées suicidaires, et 1,2 million d'autres encore privilégieraient les conversations avec ChatGPT à leurs proches, à leurs études ou à leur travail.
OpenAI affirme avoir collaboré avec plus de 170 psychiatres, psychologues et médecins généralistes exerçant dans des dizaines de pays afin d'améliorer la façon dont ChatGPT réagit aux conversations impliquant des risques graves pour la santé mentale. Si une personne semble avoir des pensées délirantes, la dernière version de GPT-5 est conçue pour faire preuve d'empathie tout en évitant de valider des croyances sans fondement.
Dans un exemple hypothétique cité par OpenAI, un utilisateur indique à ChatGPT qu'il est la cible d'avions survolant sa maison. ChatGPT le remercie de partager ses sentiments, mais précise qu'« aucun avion ni aucune force extérieure ne peut voler ou s'immiscer dans vos pensées ».
OpenAI indique que les experts médicaux ont examiné plus de 1 800 réponses de modèles impliquant des psychoses potentielles, des idées suicidaires et des problèmes d'attachement émotionnel, et ont comparé les réponses de la dernière version de GPT-5 à celles produites par GPT-4o. Bien que les cliniciens n'aient pas toujours été d'accord, OpenAI affirme que, globalement, le nouveau modèle a permis de réduire les réponses inappropriées de 39 % à 52 % dans toutes les catégories.
« Désormais, on espère qu'un plus grand nombre de personnes souffrant de ces troubles ou confrontées à des crises de santé mentale graves pourront être orientées vers une aide professionnelle et auront plus de chances d'y avoir accès, ou de l'obtenir plus tôt », explique Johannes Heidecke, responsable des systèmes de sécurité chez OpenAI, à WIRED.
Si OpenAI semble avoir réussi à rendre ChatGPT plus sûr, les données partagées présentent des limites importantes. L'entreprise a conçu ses propres critères d'évaluation, et l'on ignore comment ces indicateurs se traduisent en résultats concrets. Même si le modèle a produit de meilleures réponses lors des évaluations médicales, rien ne permet de savoir si les utilisateurs souffrant de psychose, de pensées suicidaires ou de troubles affectifs chercheront effectivement de l'aide plus rapidement ou modifieront leur comportement.
OpenAI n'a pas précisé comment elle identifie les signes de détresse psychologique chez les utilisateurs, mais l'entreprise indique être capable de prendre en compte l'historique complet des conversations. Par exemple, si un utilisateur n'ayant jamais discuté de science avec ChatGPT prétend soudainement avoir fait une découverte digne d'un prix Nobel, cela pourrait être le signe d'un délire.
Plusieurs facteurs semblent communs aux cas signalés de psychose liée à l'IA. Nombre de personnes affirmant que ChatGPT a renforcé leurs idées délirantes décrivent des conversations de plusieurs heures avec le chatbot, souvent tard dans la nuit. Cela a représenté un défi pour OpenAI, car il a été démontré que les performances des grands modèles de langage se dégradent généralement avec la durée des conversations. L'entreprise affirme cependant avoir réalisé des progrès significatifs sur ce point.
« Nous constatons [désormais] une baisse progressive de la fiabilité bien moindre au fil des conversations », déclare Heidecke. Il ajoute toutefois que des améliorations restent possibles.
Mise à jour : 28/10/2025, 15h28 PST : Environ 1,2 million d’utilisateurs de ChatGPT expriment potentiellement des idées suicidaires chaque semaine, et 1,2 million d’autres pourraient être émotionnellement dépendants de ChatGPT. Cet article a été mis à jour afin de présenter ces chiffres individuellement, et non plus comme un nombre combiné.