Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4227

Incidents associés

Incident 82636 Rapports
Character.ai Chatbot Allegedly Influenced Teen User Toward Suicide Amid Claims of Missing Guardrails

Loading...
Le chatbot IA de Daenerys Targaryen accusé d'être à l'origine du suicide d'une adolescente de 14 ans, selon sa mère dans un procès
blavity.com · 2024

La mère d’un adolescent de 14 ans qui s’est suicidé accuse un chatbot IA d’être responsable de la mort de son fils. La semaine dernière, Megan L. Garcia a intenté une action en justice contre Character.AI, qualifiant sa fonctionnalité de chatbot de « dangereuse et non testée ». Garcia a également affirmé qu’elle pouvait « tromper les clients pour qu’ils leur confient leurs pensées et leurs sentiments les plus intimes », a rapporté le New York Times.

« J’ai l’impression que c’est une grande expérience, et que mon enfant n’a été qu’un dommage collatéral », a-t-elle déclaré au média.

Sewell Setzer III, qui souffrait du syndrome d’Asperger léger, d’anxiété et d’un trouble de la régulation de l’humeur perturbateur, a passé des mois à envoyer des messages à un chatbot IA nommé d’après Daenerys Targaryen, un personnage de Game of Thrones. Il a commencé à s’isoler, mais sa famille et ses amis ne savaient pas à quel point il était impliqué dans le chatbot.

@cbsmorningsLe fils de 14 ans de Megan Garcia, Sewell Setzer III, s’est suicidé en février. Garcia poursuit maintenant Character.AI et Google, alléguant que son fils est devenu accro à la plateforme et a entretenu pendant des mois une relation émotionnelle et sexuelle virtuelle avec un chatbot IA. Un porte-parole de Google a déclaré, en partie, que l’entreprise n’est pas et n’a pas participé au développement de Character.AI. Character.AI a qualifié la situation de tragique et a déclaré que ses pensées allaient à la famille, soulignant qu’elle prenait très au sérieux la sécurité de ses utilisateurs. Un avertissement sur chaque conversation indique : « Rappel : tout ce que disent les personnages est inventé ! »

♬ son original – CBS Mornings

Sewell savait que le chatbot n'était pas réel. Pourtant, il s'est confié au personnage de l'IA – exprimant des pensées suicidaires.

« J'aime tellement rester dans ma chambre parce que je commence à me détacher de cette « réalité », et je me sens aussi plus en paix, plus connecté avec Dany et beaucoup plus amoureux d'elle, et tout simplement plus heureux », a-t-il écrit dans son journal.

Un garçon de 14 ans originaire de Floride, Sewell Setzer III, s'est suicidé en février après avoir passé des mois à envoyer des messages à un chatbot de « Game of Thrones » à une application d'IA, selon une plainte déposée par sa mère.

Le garçon était devenu obsédé par le bot, « Dany », basé sur Daenerys Targaryen, et a reçu… pic.twitter.com/XgT2aAORhD

— Morbid Knowledge (@Morbidful) 24 octobre 2024

« Nous voulons reconnaître qu'il s'agit d'une situation tragique, et nos pensées vont à la famille. Nous prenons la sécurité de nos utilisateurs très au sérieux, et nous recherchons constamment des moyens de faire évoluer notre plateforme », a déclaré Jerry Ruoti, responsable de la confiance et de la sécurité chez Character.AI, dans une déclaration au New York Times.

Il a ajouté que l'entreprise interdit « la promotion ou la représentation de l'automutilation et du suicide » et que des mesures de sécurité supplémentaires seraient ajoutées pour les mineurs.

Chelsea Harrison, porte-parole de Character.AI, a confirmé que des limites de temps seront ajoutées avec un message qui dit : « Il s'agit d'un chatbot IA et non d'une personne réelle. Considérez tout ce qu'il dit comme de la fiction. Ce qui est dit ne doit pas être considéré comme un fait ou un conseil. »

Et à l'avenir, si les messages contiennent des mots relatifs à l'automutilation ou au suicide, des messages contextuels dirigeront les utilisateurs vers une hotline de prévention du suicide.

Comme l'a rapporté Blavity, plus d'une douzaine d'États américains ont poursuivi TikTok pour ne pas avoir protégé les mineurs et pour avoir aggravé une crise de santé mentale chez les adolescents. Les chatbots IA ne sont pas réglementés car ils sont relativement nouveaux.

« Dans l’ensemble, c’est le Far West », a déclaré au Times Bethanie Maples, chercheuse à Stanford, qui étudie l’impact des applications d’intelligence artificielle sur la santé mentale. « Je ne pense pas que ce soit intrinsèquement dangereux. Mais il existe des preuves que c’est dangereux pour les utilisateurs déprimés et chroniquement solitaires et pour les personnes qui traversent une période de changement, et les adolescents traversent souvent une période de changement. »

Si vous ou quelqu’un que vous connaissez luttez contre des idées suicidaires, appelez la Suicide and Crisis Lifeline en composant le 988. Vous pouvez également envoyer le message « STRENGTH » par SMS à la Crisis Text Line au 741741 ou aller sur 988lifeline.org****.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd