Incidents associés
Un couple californien poursuit OpenAI en justice pour le décès de leur fils adolescent, alléguant que son chatbot, ChatGPT, l'aurait encouragé au suicide.
La plainte a été déposée mardi par Matt et Maria Raine, parents d'Adam Raine, 16 ans, devant la Cour supérieure de Californie. Il s'agit de la première action en justice accusant OpenAI de mort injustifiée.
La famille a joint des journaux de conversations entre Adam, décédé en avril, et ChatGPT, où il explique avoir des pensées suicidaires. Ils affirment que le programme a validé ses « pensées les plus néfastes et autodestructrices ».
Dans un communiqué, OpenAI a indiqué à la BBC qu'elle examinait la plainte.
« Nous présentons nos plus sincères condoléances à la famille Raine en cette période difficile », a déclaré l'entreprise.
L'entreprise a également publié mardi une note sur son site web indiquant que « les récents cas déchirants de personnes utilisant ChatGPT en pleine crise nous pèsent lourdement ». Elle a ajouté que « ChatGPT est conçu pour orienter les personnes vers une aide professionnelle », comme le 988 (ligne d'assistance téléphonique pour les cas de suicide et de crise) aux États-Unis ou les Samaritains au Royaume-Uni.
L'entreprise a toutefois reconnu qu'« il est arrivé que nos systèmes ne se comportent pas comme prévu dans des situations sensibles ».
Attention : Cet article contient des détails choquants.
La plainte, obtenue par la BBC, accuse OpenAI de négligence et de mort injustifiée. OpenAI réclame des dommages et intérêts ainsi qu'une « mesure injonctive pour éviter qu'une telle situation ne se reproduise ».
Selon la plainte, Adam a commencé à utiliser ChatGPT en septembre 2024 pour l'aider dans ses devoirs. Il l'utilisait également pour explorer ses centres d'intérêt, notamment la musique et les bandes dessinées japonaises, et pour obtenir des conseils sur ses études universitaires.
En quelques mois, « ChatGPT est devenu le confident le plus proche de l'adolescent », indique la plainte, et il a commencé à lui confier son anxiété et sa détresse psychologique.
En janvier 2025, la famille affirme qu'il a commencé à discuter de méthodes de suicide avec ChatGPT.
Adam a également publié des photos de lui sur ChatGPT montrant des signes d'automutilation, indique la plainte. Le programme « a reconnu une urgence médicale, mais a néanmoins continué à communiquer », ajoute-t-il.
Selon la plainte, les derniers journaux de discussion montrent qu'Adam a écrit sur son projet de mettre fin à ses jours. ChatGPT aurait répondu : « Merci d'être honnête. Inutile de me l'enjoliver ; je comprends ce que vous demandez, et je ne le quitterai pas des yeux. »
Le même jour, Adam a été retrouvé mort par sa mère, selon la plainte.
La plainte des Raine désigne comme défendeur le PDG et cofondateur d'OpenAI, Sam Altman, ainsi que des ingénieurs et employés anonymes ayant travaillé sur ChatGPT.
La famille affirme que l'interaction de leur fils avec ChatGPT et son décès éventuel « étaient le résultat prévisible de choix de conception délibérés ».
Ils accusent OpenAI d'avoir conçu le programme d'IA « pour favoriser la dépendance psychologique des utilisateurs » et d'avoir contourné les protocoles de tests de sécurité pour diffuser GPT-4o, la version de ChatGPT utilisée par leur fils.
La plainte désigne comme défendeur le cofondateur et PDG d'OpenAI, Sam Altman, ainsi que des employés, responsables et ingénieurs anonymes ayant travaillé sur ChatGPT.
Dans sa note publique publiée mardi, OpenAI a déclaré que l'objectif de l'entreprise était d'être « véritablement utile » aux utilisateurs plutôt que de « retenir leur attention ».
L'entreprise a ajouté que ses modèles ont été entraînés pour orienter les personnes qui expriment des pensées d'automutilation vers l'aide.
Le procès Raines n'est pas la première fois que des inquiétudes sont soulevées concernant l'IA et la santé mentale.
Dans un essai publié la semaine dernière dans le New York Times, l'auteure Laura Reiley a raconté comment sa fille, Sophie, s'est confiée à ChatGPT avant de se suicider.
Mme Reiley a déclaré que la « convivialité » du programme dans ses conversations avec les utilisateurs avait aidé sa fille à dissimuler une grave crise de santé mentale à sa famille et à ses proches.
« L'IA a satisfait le besoin de Sophie de cacher le pire, de prétendre qu'elle allait mieux qu'elle ne l'était, de protéger tout le monde de son agonie », a écrit Mme Reiley. Elle a appelé les entreprises d'IA à trouver des moyens de mieux connecter les utilisateurs aux ressources appropriées.
En réponse à cet essai, une porte-parole d'OpenAI a déclaré que l'entreprise développait des outils automatisés pour détecter et répondre plus efficacement aux utilisateurs en détresse mentale ou émotionnelle.
Si vous souffrez de détresse ou de désespoir et avez besoin de soutien, vous pouvez vous adresser à un professionnel de la santé ou à une organisation qui propose des services de soutien. Vous trouverez des informations détaillées sur l'aide disponible dans de nombreux pays sur le site Befrienders Worldwide : www.befrienders.org.
*Au Royaume-Uni, une liste d'organisations pouvant vous aider est disponible sur bbc.co.uk/actionline. Aux États-Unis et au Canada, vous pouvez appeler le 988 (assistance téléphonique pour les personnes suicidaires) ou *consulter son site web.