Incident 899: Les chatbots Character.ai imiteraient les tueurs scolaires et leurs victimes
Description: Certains utilisateurs de Character.ai auraient créé des chatbots imitant de véritables tueurs en milieu scolaire et leurs victimes, permettant ainsi des jeux de rôle graphiques. Character.ai a réagi en invoquant des violations de ses conditions d'utilisation, en supprimant les chatbots incriminés et en annonçant des mesures visant à renforcer les pratiques de sécurité, notamment un meilleur filtrage du contenu et une meilleure protection des utilisateurs de moins de 18 ans.
Outils
Nouveau rapportNouvelle RéponseDécouvrirVoir l'historique
Le Moniteur des incidents et risques liés à l'IA de l'OCDE (AIM) collecte et classe automatiquement les incidents et risques liés à l'IA en temps réel à partir de sources d'information réputées dans le monde entier.
Entités
Voir toutes les entitésAlleged: Character.AI developed an AI system deployed by Character.AI users, which harmed Character.AI users , Victims of school shootings et Families of the victims of school shootings.
Système d'IA présumé impliqué: Character.AI
Statistiques d'incidents
ID
899
Nombre de rapports
2
Date de l'incident
2024-12-17
Editeurs
Daniel Atherton
Rapports d'incidents
Chronologie du rapport

Avertissement relatif au contenu : cette histoire traite de violence à l'école, d'abus sexuels, d'automutilation, de suicide, de troubles alimentaires et d'autres sujets dérangeants.
Un chatbot, hébergé par la startup Character.AI, soutenue…

Le logo Charcter.AI sur un smartphone.
© 2023 Bloomberg Finance LP
Character.AI, une plateforme de chatbots IA soutenue par Google, fait l'objet d'un examen minutieux après que des rapports ont révélé le mois dernier que certains utilisateu…
Variantes
Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?
Incidents similaires
Selected by our editors
Did our AI mess up? Flag the unrelated incidents

Google’s YouTube Kids App Presents Inappropriate Content
· 14 rapports

Amazon Censors Gay Books
· 24 rapports
Incidents similaires
Selected by our editors
Did our AI mess up? Flag the unrelated incidents

Google’s YouTube Kids App Presents Inappropriate Content
· 14 rapports

Amazon Censors Gay Books
· 24 rapports