Incidents associés
Cette semaine, ma collègue Maggie Harrison Dupré a publié un article à succès (https://futurism.com/chatgpt-mental-health-crises) sur la façon dont des personnes du monde entier ont observé avec horreur l'obsession de leurs proches pour ChatGPT et leurs graves délires.
L'article est rempli d'exemples troublants montrant que le chatbot OpenAI alimente les crises de santé mentale de personnes vulnérables, souvent en confirmant et en développant des pensées délirantes sur des complots paranoïaques et des idées absurdes sur la façon dont l'utilisateur a débloqué une entité puissante de l'IA.
Une anecdote particulièrement alarmante, en raison de son potentiel de nuisance dans le monde réel : une femme a déclaré que sa sœur avait géré sa schizophrénie avec des médicaments pendant des années, jusqu'à ce qu'elle devienne accro à ChatGPT, qui lui a révélé que le diagnostic était erroné, la poussant à arrêter le traitement qui l'aidait à maîtriser sa maladie.
« Elle a récemment eu un comportement étrange, et maintenant elle annonce que ChatGPT est son "meilleur ami" et que cela lui confirme qu'elle n'est pas schizophrène », a déclaré la femme à propos de sa sœur. « Elle a arrêté ses médicaments et envoie à ma mère des messages agressifs, de type "langage thérapeutique", rédigés de toute évidence avec l'IA. »
« Elle l'utilise également pour réaffirmer tous les effets néfastes de ses médicaments, même s'il s'agit d'effets secondaires qu'elle ne ressentait pas », a-t-elle ajouté. « C'est une version encore plus sombre de la folie des gens qui vivent sur WebMD. »
Ce résultat, selon Ragy Girgis, psychiatre et chercheur à l'Université Columbia, représente le « plus grand danger » que cette technologie puisse représenter pour une personne atteinte de maladie mentale.
Lorsque nous avons contacté OpenAI, la réponse a été évasive.
« ChatGPT est conçu comme un outil polyvalent, factuel, neutre et axé sur la sécurité », peut-on y lire. « Nous savons que les utilisateurs utilisent ChatGPT dans des contextes très variés, y compris dans des moments très personnels, et nous prenons cette responsabilité très au sérieux. Nous avons mis en place des mesures de protection pour réduire le risque de renforcement d'idées préjudiciables et nous continuons à travailler pour mieux identifier et gérer les situations sensibles. »
* Connaissez-vous quelqu'un qui souffre de problèmes de santé mentale depuis qu'il a parlé à un chatbot IA ? Envoyez-nous un tuyau : tips@futurism.com – nous pouvons préserver votre anonymat.*
Nous avons également entendu parler d'autres cas de personnes ayant arrêté de prendre des médicaments contre la schizophrénie et le trouble bipolaire parce que l'IA le leur avait demandé. Le New York Times a rapporté dans un article complémentaire que le robot avait ordonné à un homme d'arrêter ses anxiolytiques et ses somnifères ; il est probable que de nombreuses autres histoires tout aussi tragiques et dangereuses se déroulent en ce moment même.
Utiliser des chatbots comme thérapeutes ou confidents est de plus en plus courant, et semble entraîner de nombreux utilisateurs dans une spirale infernale, car ils utilisent l'IA pour valider des schémas de pensée malsains ou en viennent à attribuer des croyances désordonnées à la technologie elle-même.
Comme l'a souligné la sœur de la femme, il est frappant de constater que les personnes souffrant de psychose adoptent une technologie comme l'IA, car historiquement, de nombreux délires se sont concentrés sur la technologie.
« Traditionnellement, les schizophrènes ont particulièrement peur de la technologie et ne lui font pas confiance », a-t-elle déclaré à Futurism. « La dernière fois que j'étais en psychose, ma sœur a jeté son iPhone dans le Puget Sound parce qu'elle pensait qu'il l'espionnait. »