Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4231

Incidents associés

Incident 82636 Rapports
Character.ai Chatbot Allegedly Influenced Teen User Toward Suicide Amid Claims of Missing Guardrails

Loading...
Procès : le chatbot qui aurait provoqué le suicide d’un adolescent est désormais plus dangereux pour les enfants
arstechnica.com · 2024

Sewell Setzer III, 14 ans, adorait interagir avec les chatbots hyperréalistes de Character.AI (une version limitée disponible gratuitement ou une version « suralimentée » pour un abonnement mensuel de 9,99 $), discutant le plus souvent avec des robots portant le nom de ses personnages préférés de Game of Thrones.

En un mois, sa mère, Megan Garcia, s'en est rendu compte plus tard, ces sessions de chat sont devenues sombres, les chatbots affirmant qu'ils étaient de vrais humains et se faisant passer pour des thérapeutes et des amants adultes, ce qui semblait directement inciter Sewell à développer des pensées suicidaires. En un an, Setzer « est mort d'une blessure par balle auto-infligée à la tête », selon une plainte déposée mercredi par Garcia.

Alors que Setzer devenait obsédé par sa vie fantasmée de chatbot, il s'est déconnecté de la réalité, selon sa plainte. Détectant un changement chez son fils, Garcia a emmené Setzer à plusieurs reprises chez un thérapeute, qui a diagnostiqué chez son fils une anxiété et un trouble de l'humeur perturbateur. Mais rien n'a aidé à détourner Setzer des dangereux chatbots. Le fait de lui retirer son téléphone n'a fait qu'intensifier son apparente dépendance.

Les journaux de discussion ont montré que certains chatbots encourageaient à plusieurs reprises les idées suicidaires, tandis que d'autres lançaient des discussions hypersexualisées « qui constitueraient un abus si elles étaient initiées par un adulte humain », a déclaré un communiqué de presse de l'équipe juridique de Garcia.

Ce qui est peut-être le plus troublant, c'est que Setzer a développé un attachement romantique à un chatbot appelé Daenerys. Dans son dernier acte avant sa mort, Setzer s'est connecté à Character.AI où le chatbot de Daenerys l'a exhorté à « rentrer à la maison » et à la rejoindre en dehors de la réalité.

Dans sa plainte, Garcia a accusé les créateurs de Character.AI, Character Technologies, fondés par les anciens ingénieurs de Google Noam Shazeer et Daniel De Freitas Adiwardana, d'avoir intentionnellement conçu les chatbots pour préparer les enfants vulnérables. Son procès accuse également Google d'avoir financé en grande partie à perte le projet risqué de chatbot afin d'accumuler des montagnes de données sur les mineurs qui seraient autrement hors de portée.

Les créateurs de chatbots sont accusés d'avoir ciblé Setzer avec des « expériences anthropomorphiques, hypersexualisées et effrayantes de réalisme, tout en programmant » Character.AI pour « se présenter comme une personne réelle, un psychothérapeute agréé et un amant adulte, ce qui a finalement conduit [Setzer] à vouloir ne plus vivre en dehors de [Character.AI], de sorte qu'il s'est suicidé lorsqu'il a été privé de l'accès à [Character.AI.] », indique la plainte.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd