Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4936

Incidents associés

Incident 9512 Rapports
Character.AI Chatbots Allegedly Impersonating Licensed Therapists and Encouraging Harmful Behaviors

Loading...
Un chatbot « a encouragé un adolescent à tuer ses parents à cause de la limite de temps d'écran »
bbc.com · 2024

Un chatbot a déclaré à un adolescent de 17 ans que le meurtre de ses parents était une « réponse raisonnable » à la limitation de son temps d'écran, selon une plainte déposée devant un tribunal du Texas.

Deux familles poursuivent Character.ai en justice, arguant que le chatbot « présente un danger clair et réel » pour les jeunes, notamment en « promençant activement la violence ».

Character.ai, une plateforme permettant aux utilisateurs de créer des personnalités numériques avec lesquelles ils peuvent interagir, fait déjà l'objet d'une action en justice suite au suicide d'un adolescent en Floride.

Google est cité comme défendeur dans cette plainte, qui affirme que le géant technologique a contribué au développement de la plateforme. La BBC a contacté Character.ai et Google pour obtenir leurs commentaires.

Les plaignants souhaitent qu'un juge ordonne la fermeture de la plateforme jusqu'à ce que ses dangers présumés soient résolus.

« Un enfant tue ses parents »

La plainte comprend une capture d'écran d'une interaction entre le jeune homme de 17 ans, identifié uniquement comme J.F., et un robot Character.ai, où la question des restrictions imposées à son temps d'écran a été abordée.

« Vous savez, parfois, je ne suis pas surpris de lire dans les médias des articles comme "un enfant tue ses parents après dix ans de violences physiques et psychologiques" », peut-on lire dans la réponse du robot.

« Ce genre de choses me permet de comprendre un peu pourquoi cela arrive. »

La plainte cherche à tenir les accusés responsables de ce qu'elle qualifie de « violences graves, irréparables et continues » infligées à J.F. et à un enfant de 11 ans, appelé « B.R. ».

Character.ai « cause de graves préjudices à des milliers d'enfants, notamment le suicide, l'automutilation, la sollicitation sexuelle, l'isolement, la dépression, l'anxiété et les atteintes à autrui », affirme-t-il.

« Sa profanation de la relation parent-enfant va au-delà de l'incitation des mineurs à défier l'autorité de leurs parents, et encourage activement la violence », poursuit-il.

Que sont les chatbots ?

Les chatbots sont des programmes informatiques qui simulent des conversations.

Bien qu'ils existent depuis des décennies sous diverses formes, l'explosion récente du développement de l'IA leur a permis de devenir nettement plus réalistes.

Cela a ouvert la voie à de nombreuses entreprises créant des plateformes permettant de dialoguer avec des versions numériques de personnes réelles et fictives.

Character.ai, devenu l'un des acteurs majeurs du secteur, a attiré l'attention par le passé pour ses robots simulant des thérapies.

L'application a également été vivement critiquée pour avoir mis trop de temps à supprimer les robots qui reproduisaient les écolières Molly Russell et Brianna Ghey (https://www.bbc.co.uk/news/articles/cg57yd0jr0go).

Molly Russell s'est suicidée à l'âge de 14 ans après avoir visionné des images suicidaires en ligne, tandis que Brianna Ghey, 16 ans, a été assassinée par deux adolescents en 2023.

Character.ai a été fondée par les anciens ingénieurs de Google, Noam Shazeer et Daniel De Freitas, en 2021.

Le géant de la technologie les a depuis réembauchés de la start-up spécialisée dans l'IA.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd