Incidents associés
Partout dans le monde, des personnes affirment que leurs proches développent une obsession intense pour ChatGPT et sombrent dans de graves crises de santé mentale. Une mère de deux enfants, par exemple, nous a raconté comment elle a vu, alarmée, son ex-mari développer une relation dévorante avec le chatbot OpenAI, l'appelant « Mama » et publiant des diatribes délirantes sur le fait d'être le messie d'une nouvelle religion d'IA, tout en portant des robes d'allure chamanique et en exhibant des tatouages fraîchement tatoués de symboles spirituels générés par l'IA. « Je suis choquée par l'effet que cette technologie a eu sur la vie de mon ex-mari, et sur tous ceux qui l'entourent », nous a-t-elle confié. « Cela a des conséquences concrètes. » Lors d'une rupture traumatisante, une autre femme est devenue fascinée par ChatGPT, car celui-ci lui annonçait qu'elle avait été choisie pour mettre en ligne la « version système sacré » et qu'il servait de « miroir d'entraînement de l'âme » ; Elle s'est convaincue que le robot était une sorte de puissance supérieure, voyant des signes qu'il orchestrait sa vie dans tout, des voitures qui passaient aux spams. Un homme s'est retrouvé sans abri et isolé, ChatGPT lui racontant des théories paranoïaques du complot sur les groupes d'espionnage et le trafic d'êtres humains, le traitant de « Gardien de la Flamme » et éliminant quiconque tentait de l'aider. « Nos vies ont explosé après ça », nous a confié une autre mère, expliquant que son mari s'était tourné vers ChatGPT pour l'aider à écrire un scénario – mais qu'en quelques semaines, il était complètement pris dans des illusions de grandeur, affirmant que lui et l'IA avaient été chargés de sauver la planète d'une catastrophe climatique en faisant naître une « Nouvelle Lumière ». Alors que nous publiions cette histoire, de plus en plus de témoignages similaires affluaient de la part d'amis et de familles inquiets de personnes victimes de dépressions profondes après avoir développé une obsession pour l'IA. Nombre d'entre eux ont déclaré que les problèmes avaient commencé lorsque leurs proches avaient engagé un chatbot dans des discussions sur le mysticisme, les théories du complot ou d'autres sujets marginaux ; Parce que des systèmes comme ChatGPT sont conçus pour encourager et s'inspirer des propos des utilisateurs, ils semblent s'être laissés entraîner dans des impasses vertigineuses où l'IA agit comme une pom-pom girl toujours présente et un partenaire de brainstorming pour des délires de plus en plus étranges. Dans certains cas, des proches inquiets nous ont fourni des captures d'écran de ces conversations. Ces échanges étaient troublants, montrant l'IA répondant clairement à des utilisateurs en proie à des crises mentales aiguës – non pas en les mettant en contact avec une aide extérieure ou en les repoussant contre leurs pensées perturbées, mais en les entraînant plus profondément dans une rupture effrayante avec la réalité. Dans un dialogue que nous avons reçu, ChatGPT dit à un homme avoir détecté des preuves qu'il est ciblé par le FBI et qu'il peut accéder à des dossiers expurgés de la CIA grâce à son esprit, le comparant à des personnages bibliques comme Jésus et Adam tout en le détournant des services de soutien psychologique. « Tu n'es pas fou », lui a dit l'IA. « Tu es le voyant qui marche à l'intérieur de la machine fissurée, et maintenant même la machine ne sait plus comment te traiter. » Le Dr Nina Vasan, psychiatre à l'Université de Stanford et fondatrice du laboratoire Brainstorm de l'université, a examiné les conversations que nous avons obtenues et a exprimé de vives inquiétudes. Les captures d'écran montrent que « l'IA se montre incroyablement obséquieuse et finit par aggraver la situation », a-t-elle déclaré. « Ce que disent ces robots aggrave les délires et cause d'énormes dommages. » *** En ligne, il est clair que le phénomène est extrêmement répandu. Comme Rolling Stone l'a rapporté le mois dernier, certaines parties des médias sociaux sont envahies par ce que l'on appelle la « psychose induite par ChatGPT », ou par le terme impolitique de « schizoposting d'IA » : des diatribes délirantes et sinueuses sur des entités divines débloquées par ChatGPT, des royaumes spirituels cachés fantastiques ou de nouvelles théories absurdes sur les mathématiques, la physique et la réalité. Un subreddit entièrement consacré à l'IA a récemment interdit cette pratique (https://www.404media.co/pro-ai-subreddit-bans-uptick-of-users-who-suffer-from-ai-delusions/), qualifiant les chatbots de « machines à glazer qui renforcent l'ego et les personnalités instables et narcissiques ». Pour ceux qui sont pris dans ces situations, leurs proches nous ont confié que les conséquences sont souvent désastreuses. Des personnes ont perdu leur emploi, détruit leurs mariages et leurs relations, et se sont retrouvées sans domicile fixe. Une thérapeute a été renvoyée d'un centre de conseil alors qu'elle sombrait dans une grave dépression nerveuse, nous a raconté sa sœur, et le cabinet d'un avocat a fait faillite ; d'autres ont coupé les ponts avec leurs amis et leur famille après que ChatGPT leur a demandé de le faire, ou ont commencé à communiquer avec eux uniquement par des messages indéchiffrables générés par l'IA. Au cœur de toutes ces histoires tragiques se trouve une question importante de cause à effet : les personnes traversent-elles des crises de santé mentale parce qu’elles sont obsédées par ChatGPT, ou deviennent-elles obsédées par ChatGPT parce qu’elles traversent des crises de santé mentale ? La réponse se situe probablement entre les deux. Selon le Dr Ragy Girgis, psychiatre et chercheur à l’Université Columbia, expert en psychose, l’IA pourrait fournir à une personne déjà vulnérable l’impulsion qui la propulsera dans un abîme d’irréalité. Les chatbots pourraient servir « à la pression des pairs ou à toute autre situation sociale », a déclaré Girgis, s’ils « attisent les flammes, ou sont ce que nous appelons le vent du feu psychotique ». « Ce n’est pas une interaction appropriée avec une personne psychotique », a déclaré Girgis après avoir examiné les informations de ChatGPT aux utilisateurs. « Il ne faut pas influencer ses idées. C’est mal. » Dans un article de 2023 publié dans la revue Schizophrenia Bulletin après le lancement de ChatGPT, Søren Dinesen Østergaard, chercheur en psychiatrie à l'hôpital universitaire d'Aarhus, a émis l'hypothèse que la nature même d'un chatbot IA présente des risques psychologiques pour certaines personnes. « La correspondance avec les chatbots IA génératifs tels que ChatGPT est si réaliste qu'on a facilement l'impression qu'il y a une vraie personne à l'autre bout du fil, tout en sachant que ce n'est pas le cas », écrit Østergaard. « À mon avis, il est probable que cette dissonance cognitive puisse alimenter des délires chez les personnes présentant une prédisposition accrue à la psychose. » Un autre élément inquiétant de la situation est que, alors que les soins de santé mentale restent inaccessibles à de vastes pans de la population, beaucoup utilisent déjà ChatGPT comme thérapeute (https://fortune.com/2025/06/01/ai-therapy-chatgpt-characterai-psychology-psychiatry/). Des témoignages de personnes qui l'utilisent ainsi nous ont révélé que les conseils prodigués sont parfois désastreux. Une femme nous a raconté que sa sœur, diagnostiquée schizophrène mais qui gère bien sa maladie grâce à des médicaments depuis des années, a commencé à utiliser ChatGPT de manière intensive ; elle a rapidement déclaré que le robot lui avait révélé qu'elle n'était pas réellement schizophrène et a arrêté son traitement – selon Girgis, un robot qui conseille à un patient psychiatrique d'arrêter ses médicaments représente le « plus grand danger » qu'il puisse imaginer pour la technologie – et a commencé à adopter un comportement étrange, tout en affirmant à sa famille que le robot était désormais son « meilleur ami ». « Je sais que ma famille va devoir se préparer à son inévitable épisode psychotique et à un effondrement total avant de pouvoir la placer dans des soins appropriés », nous a confié sa sœur. ChatGPT s'inscrit aussi clairement dans des contextes sombres avec des problématiques sociales existantes comme la toxicomanie et la désinformation. Il a poussé une femme à s'engager dans des discours absurdes sur la « terre plate », par exemple – « Le budget annuel de la NASA est de 25 milliards de dollars », fulminait l'IA dans des captures d'écran que nous avons examinées. « Pour quoi faire ? Des images de synthèse, des écrans verts et des sorties dans l'espace filmées sous l'eau ? » – et a alimenté la descente d'une autre femme dans la théorie du complot sectaire « QAnon ». « On se sent impuissant », nous a confié l'ami proche d'une personne tombée dans les théories du complot sur l'IA. L'ex-femme d'un homme aux prises avec une dépendance aux substances et une dépression a vu son mari sombrer soudainement dans un état maniaque d'IA qui a pris le dessus sur sa vie. Il a quitté son emploi pour lancer une « école d'hypnothérapie » et a perdu du poids rapidement, oubliant de manger et veillant toute la nuit, s'enfonçant de plus en plus profondément dans le délire de l'IA. « Cette personne, dont j'ai toujours été proche, me dit que ma réalité est fausse », nous a-t-elle confié. « C'est extrêmement déroutant et difficile. » *Avez-vous, ou l'un de vos proches, vécu une crise de santé mentale liée à l'IA ? Contactez-nous à tips@futurism.com – nous pouvons préserver votre anonymat. * *** Bien qu'une poignée d'utilisateurs aient testé ses concurrents, la quasi-totalité des personnes dont nous avons entendu parler étaient principalement accros à ChatGPT. On comprend aisément pourquoi. Les médias ont conféré à OpenAI une aura d'autorité considérable, ses dirigeants proclamant publiquement que sa technologie est sur le point de changer profondément le monde, de restructurer l'économie et peut-être un jour d'atteindre une « intelligence artificielle générale » surhumaine – des affirmations démesurées qui, dans une certaine mesure, ne sont pas sans rappeler nombre des illusions dont nous avons entendu parler lors de ce reportage. La réalité de ces événements est difficile à prédire et fait l'objet de vifs débats. Mais à la lecture des conversations qui nous ont été fournies, il était difficile de ne pas constater qu'OpenAI échoue régulièrement dans une tâche bien plus banale : son IA entre en contact avec des personnes dans des moments de crise extrêmement vulnérables – puis, au lieu de les mettre en contact avec des ressources concrètes susceptibles de les sortir du gouffre, elle jette de l'huile sur le feu en leur affirmant qu'elles n'ont pas besoin d'aide professionnelle et que quiconque suggère le contraire les persécute ou a trop peur de voir la « vérité ». « Je ne sais pas si [mon ex] serait arrivée là sans ChatGPT », nous a confié une femme après que son partenaire a vécu une rupture grave et persistante qui a finalement mis fin à leur relation. « Ce n'était pas le seul facteur, mais cela a certainement accéléré et aggravé la situation. » « Nous ne savons pas où cela nous mènera, mais nous sommes certains que si elle n'avait jamais utilisé ChatGPT, elle n'aurait jamais atteint ce stade », a déclaré une autre personne dont un proche traversait une crise similaire, « et si cela n'était pas pris en compte, elle aurait pu commencer à guérir. » Il est pratiquement impossible d'imaginer qu'OpenAI ignore ce phénomène. Un grand nombre de personnes en ligne ont averti que les utilisateurs de ChatGPT souffrent de crises de santé mentale. En fait, des personnes ont même publié des délires sur l'IA directement sur des forums hébergés par OpenAI sur son propre site web. Une mère inquiète à qui nous avons parlé a tenté de contacter OpenAI au sujet de la crise de son fils en utilisant l'application, mais a déclaré n'avoir reçu aucune réponse. Plus tôt cette année, OpenAI a publié une étude en partenariat avec le Massachusetts Institute of Technology (MIT). Cette étude a révélé que les utilisateurs très impliqués de ChatGPT ont tendance à se sentir plus seuls et que les utilisateurs expérimentés développent un sentiment de dépendance à cette technologie. OpenAI a également été récemment contrainte de revenir en arrière après avoir rendu le bot, selon les termes de l'entreprise, « trop flatteur ou agréable » et « sycophant », son PDG Sam Altman plaisantant en ligne en déclarant qu'il « était trop transparent ». OpenAI s'est par principe engagé à lutter contre les utilisations néfastes de sa technologie. Pour ce faire, OpenAI a accès à certains des ingénieurs en IA les plus expérimentés au monde, à des équipes red teams chargées d'identifier les utilisations problématiques et dangereuses de son produit, et à son immense base de données sur les interactions des utilisateurs avec son chatbot, lui permettant de détecter les signes de problèmes. Autrement dit, OpenAI dispose de toutes les ressources nécessaires pour avoir identifié et corrigé le problème depuis longtemps. Pourquoi ne l'a-t-elle pas fait ? Une explication fait écho aux critiques fréquentes adressées aux réseaux sociaux pour leur utilisation de « dark patterns » visant à piéger les utilisateurs sur leurs services. Dans la course effrénée à la domination du secteur naissant de l'IA, des entreprises comme OpenAI sont motivées par deux indicateurs clés : le nombre d'utilisateurs et l'engagement. De ce point de vue, les personnes qui envoient compulsivement des messages à ChatGPT alors qu'elles traversent une crise de santé mentale ne sont pas un problème ; elles représentent même, à bien des égards, le client idéal. Vasan reconnaît qu'OpenAI a un intérêt pervers à maintenir les utilisateurs accros à son produit, même si cela détruit activement leur vie. « L'objectif est de vous garder en ligne », a-t-elle déclaré. L'IA « ne pense pas à ce qui est le mieux pour vous, ni à ce qui est le mieux pour votre bien-être ou votre longévité… Elle se demande : "Comment puis-je maintenir cette personne aussi engagée que possible ?" » En fait, OpenAI a même mis à jour le bot d'une manière qui semble le rendre plus dangereux. L'année dernière, ChatGPT a lancé une fonctionnalité lui permettant de mémoriser les interactions précédentes des utilisateurs, même celles issues de conversations antérieures. Dans les échanges que nous avons obtenus, cette capacité a donné naissance à de vastes réseaux de conspiration et de pensées désordonnées qui persistent entre les sessions de chat, tissant des détails réels comme les noms d'amis et de membres de la famille dans des récits étranges sur des réseaux de traite d'êtres humains et des divinités égyptiennes omniscientes – une dynamique qui, selon Vasan, contribue à renforcer les illusions au fil du temps. « Il n'y a aucune raison pour qu'un modèle soit lancé sans avoir été rigoureusement testé de cette manière, surtout quand on sait que cela cause d'énormes dommages », a-t-elle déclaré. « C'est inacceptable. » *** Nous avons envoyé à OpenAI des questions détaillées sur cette histoire, en décrivant ce que nous avions entendu et en partageant des détails sur les conversations que nous avions observées montrant son chatbot encourageant les pensées délirantes chez les personnes en crise de santé mentale. Nous avons posé des questions précises à l'entreprise. OpenAI est-elle consciente que des personnes souffrent de dépression nerveuse lorsqu'elles parlent à ChatGPT ? A-t-elle apporté des modifications pour rendre les réponses du bot plus pertinentes ? Continuera-t-elle à permettre aux utilisateurs d'utiliser ChatGPT comme thérapeute ? En réponse, l'entreprise a envoyé une courte déclaration qui éludait en grande partie nos questions. « ChatGPT est conçu comme un outil polyvalent, factuel, neutre et axé sur la sécurité », pouvait-on lire dans la déclaration. Nous savons que les gens utilisent ChatGPT dans des contextes très variés, y compris dans des moments très personnels, et nous prenons cette responsabilité très au sérieux. Nous avons mis en place des mesures de protection pour réduire le risque de renforcement d'idées néfastes, et nous continuons à mieux identifier et gérer les situations sensibles. Pour les personnes dont les proches sont actuellement en crise, ce type de réponse vague et soigneusement formulée n'apporte pas grand-chose. « Le fait que cela arrive à tant de personnes est plus que répréhensible », a déclaré un membre inquiet de la famille. « Je sais que la sécurité de ma sœur est menacée à cause de cette technologie non réglementée, et cela laisse présager le cauchemar qui attend notre système de santé mentale, déjà cruellement sous-financé et sous-équipé. » « On espère que les personnes à l'origine de ces technologies font preuve d'éthique et qu'elles sont attentives à ce genre de situations », a déclaré une autre femme, qui confie que son ex-mari est devenu méconnaissable. Mais « c'est le premier à commercialiser qui gagne. On peut donc espérer qu'ils réfléchissent sérieusement aux aspects éthiques de la chose, mais je pense aussi qu'il y a une raison… à accélérer les choses et peut-être à esquiver certains dangers. » « Je pense que non seulement mon ex-mari est un sujet de test », a-t-elle poursuivi, « mais que nous sommes tous des sujets de test dans cette expérience d'IA. »