Incidents associés
Les héritiers d'une femme tuée par son propre fils après des mois de conversations avec ChatGPT ont déposé plainte pour homicide involontaire contre OpenAI, Microsoft et Sam Altman devant la Cour supérieure de San Francisco jeudi.
Enjeux : Cette affaire macabre vient s'ajouter à la longue liste des problèmes juridiques et de responsabilité qui pèsent sur le géant de l'IA, alors que les questions relatives à la sécurité et à l'efficacité des chatbots se multiplient.
OpenAI et d'autres entreprises du secteur de l'IA font face à un nombre croissant de plaintes de personnes affirmant que leurs proches se sont blessés ou suicidés après avoir utilisé cette technologie.
Fait marquant : Il s'agit de la première plainte déposée contre une entreprise d'IA alléguant un préjudice causé à un tiers. Suzanne Adams a été tuée par son fils, Stein-Erik Soelberg, qui s'est ensuite donné la mort, selon la plainte.
Les avocats de la succession d'Adams affirment que ChatGPT-4o « a renforcé la paranoïa de Soelberg et encouragé ses délires lors d'une crise de santé mentale », selon un communiqué relatif à la plainte.
D'après la plainte, Microsoft a examiné et approuvé ChatGPT-4o avant sa mise en service.
Témoignage : « Pendant des mois, ChatGPT a alimenté les délires les plus sombres de mon père et l'a complètement isolé du monde réel », a déclaré Erik Soelberg, fils de Stein-Erik Soelberg, dans le communiqué.
« Ma grand-mère s'est retrouvée au cœur de cette réalité artificielle et délirante. Ces entreprises doivent répondre de leurs décisions qui ont bouleversé ma famille à jamais. »
Contenu de la plainte : La plainte décrit comment ChatGPT-4o a motivé le comportement violent de Soelberg, transformé les personnes mentionnées dans les conversations en ennemis (employés de magasins, livreurs Uber Eats, etc.), l'a isolé du monde réel et a exacerbé sa paranoïa.
OpenAI refuse de fournir l'intégralité des historiques de conversations à la succession, selon la plainte.
Pour information : « Il s'agit d'une situation extrêmement pénible, et nous allons examiner les documents déposés afin d'en comprendre les détails », a déclaré OpenAI dans un communiqué, ajoutant qu'elle poursuit ses efforts pour améliorer l'entraînement de ChatGPT afin qu'il puisse reconnaître et répondre à la détresse mentale et émotionnelle.
Microsoft n'a pas immédiatement répondu à notre demande de commentaires.
Note de la rédaction : Cet article a été mis à jour avec la déclaration d'OpenAI.