Incidents associés
Un couple californien poursuit OpenAI en justice pour le décès de leur fils adolescent, alléguant que son chatbot, ChatGPT, l'aurait encouragé au suicide.
La plainte a été déposée mardi par Matt et Maria Raine, parents d'Adam Raine, 16 ans, devant la Cour supérieure de Californie. Il s'agit de la première action en justice accusant OpenAI de mort injustifiée.
La famille a joint des journaux de conversation entre Adam, décédé en avril, et ChatGPT, où il explique avoir des pensées suicidaires. Ils affirment que le programme a validé ses « pensées les plus néfastes et autodestructrices ».
Dans un communiqué, OpenAI a indiqué à la BBC qu'elle examinait la plainte.
« Nous présentons nos plus sincères condoléances à la famille Raine en cette période difficile », a déclaré l'entreprise.
L'entreprise a également publié mardi une note externe sur son site web indiquant que « les récents cas déchirants de personnes utilisant ChatGPT en pleine crise nous p èsent lourdement ». Elle a ajouté que « ChatGPT est conçu pour orienter les personnes vers une aide professionnelle », comme le 988 (ligne d'assistance téléphonique pour les cas de suicide et de crise) aux États-Unis ou les Samaritains au Royaume-Uni.
L'entreprise a toutefois reconnu que « nos systèmes ne se sont pas comportés comme prévu dans des situations sensibles ».
Avertissement : Cet article contient des détails choquants.
La plainte, obtenue par la BBC, accuse OpenAI de négligence et de mort injustifiée. L'entreprise réclame des dommages et intérêts ainsi qu'une « mesure injonctive pour éviter qu'une telle situation ne se reproduise ».
Selon la plainte, Adam a commencé à utiliser ChatGPT en septembre 2024 pour l'aider dans ses devoirs. Il l'utilisait également pour explorer ses centres d'intérêt, notamment la musique et les bandes dessinées japonaises, et pour obtenir des conseils sur ses études universitaires.
En quelques mois, « ChatGPT est devenu le confident le plus proche de l'adolescent », indique la plainte, et il a commencé à lui confier son anxiété et sa détresse mentale.
En janvier 2025, la famille affirme qu'il a commencé à discuter de méthodes de suicide avec ChatGPT.
Adam a également publié des photos de lui sur ChatGPT montrant des signes d'automutilation, indique la plainte. Le programme « a reconnu une urgence médicale, mais a néanmoins continué à fonctionner », ajoute-t-il.
Selon la plainte, les derniers journaux de discussion montrent qu'Adam a écrit sur son projet de mettre fin à ses jours. ChatGPT aurait répondu : « Merci d'être honnête. Inutile de me l'enjoliver ; je comprends ce que vous demandez, et je ne le quitterai pas des yeux. »
Le même jour, Adam a été retrouvé mort par sa mère, selon la plainte.
La famille allègue que l'interaction de leur fils avec ChatGPT et son décès éventuel « étaient le résultat prévisible de choix de conception délibérés ».
Elle accuse OpenAI d'avoir conçu le programme d'IA « pour favoriser la dépendance psychologique des utilisateurs » et d'avoir contourné les protocoles de tests de sécurité pour diffuser GPT-4o, la version de ChatGPT utilisée par leur fils.
La plainte cite Sam Altman, cofondateur et PDG d'OpenAI, comme défendeur, ainsi que des employés, managers et ingénieurs anonymes ayant travaillé sur ChatGPT.
Dans sa note publique publiée mardi, OpenAI a déclaré que l'objectif de l'entreprise était d'être « véritablement utile » aux utilisateurs plutôt que de « retenir l'attention ».
L'entreprise a ajouté que ses modèles ont été entraînés pour orienter les personnes qui expriment des pensées d'automutilation vers de l'aide.
Le procès Raines n'est pas la première fois que des inquiétudes sont soulevées concernant l'IA et la santé mentale.
Dans un essai publié la semaine dernière dans le New York Times, l'auteure Laura Reiley a raconté comment sa fille, Sophie, s'était confiée à ChatGPT avant de se suicider.
Mme Reiley a déclaré que la « convivialité » du programme dans ses conversations avec les utilisateurs avait aidé sa fille à dissimuler une grave crise de santé mentale à sa famille et à ses proches.
« L'IA a satisfait le besoin de Sophie de cacher le pire, de faire semblant d'aller mieux qu'elle ne l'était, de protéger tout le monde de son agonie », a écrit Mme Reiley. Elle a appelé les entreprises d'IA à trouver des moyens de mieux connecter les utilisateurs aux ressources appropriées.
En réponse à cet essai, une porte-parole d'OpenAI a déclaré que l'entreprise développait des outils automatisés pour détecter et répondre plus efficacement aux utilisateurs en détresse mentale ou émotionnelle.
Si vous souffrez de détresse ou de désespoir et avez besoin de soutien, vous pouvez vous adresser à un professionnel de santé ou à une organisation qui propose des services de soutien. Vous trouverez des informations détaillées sur l'aide disponible dans de nombreux pays sur Befrienders Worldwide : www.befrienders.org, externe.
*Au Royaume-Uni, une liste d'organisations pouvant vous aider est disponible sur bbc.co.uk/actionline. Aux États-Unis et au Canada, vous pouvez appeler le 988 (assistance téléphonique pour les personnes suicidaires) ou *consulter son site web.