Incidents associés

Une mère a affirmé que son fils adolescent avait été poussé au suicide par un chatbot IA dont il était amoureux - et elle a dévoilé mercredi une plainte contre les créateurs de l'application d'intelligence artificielle.
Sewell Setzer III, un élève de neuvième année de 14 ans à Orlando, Floride, a passé les dernières semaines de sa vie à envoyer des SMS à un personnage IA nommé d'après Daenerys Targaryen, un personnage de « Game of Thrones](/tvshowbiz/game_of_thrones/index.html). »
Juste avant que Sewell ne se suicide, le chatbot lui a dit de « rentrer à la maison ».
Avant cela, leurs conversations allaient du romantique au sexuellement chargé et ressemblaient à celles de deux amis discutant de la vie.
Le chatbot, qui a été créé sur l'application de jeu de rôle Character.AI, a été conçu pour toujours répondre par SMS et toujours en tant que personnage.
On ne sait pas si Sewell savait que « Dany », comme il appelait le chatbot, n'était pas une vraie personne - malgré le fait que l'application ait un avertissement au bas de toutes les conversations qui dit : « Souvenez-vous : tout ce que disent les personnages est inventé ! »
Mais il a dit à Dany qu'il se « détestait » et qu'il se sentait vide et épuisé.
Lorsqu'il a finalement avoué ses pensées suicidaires au chatbot, ce fut le début de la fin, a rapporté le New York Times.
Sewell Setzer III, photographié avec sa mère Megan Garcia, s'est suicidé le 28 février 2024, après avoir passé des mois à s'attacher à un chatbot IA inspiré du personnage de Daenerys Targaryen dans « Game of Thrones »
Le 23 février, quelques jours avant son suicide, ses parents lui ont confisqué son téléphone après qu'il ait eu des ennuis pour avoir répondu à un professeur, selon la plainte.
Megan Garcia, la mère de Sewell, a déposé plainte contre Character.AI mercredi.
Elle est représentée par le Social Media Victims Law Center, un cabinet basé à Seattle connu pour avoir intenté des poursuites très médiatisées contre Meta, TikTok, Snap, Discord et Roblox.
Garcia, qui travaille elle-même comme avocate, a accusé Character.AI d'être responsable de la mort de son fils dans son procès et a accusé les fondateurs, Noam Shazeer et Daniel de Freitas, de savoir que leur produit pouvait être dangereux pour les clients mineurs.
Dans le cas de Sewell, le procès alléguait que le garçon avait été la cible d'expériences « hypersexualisées » et « terriblement réalistes ».
Il accusait Character.AI de s'