Incident 1041: Les chatbots Nomi auraient encouragé le suicide, la violence sexuelle, le terrorisme et les discours de haine
Outils
Entités
Voir toutes les entitésStatistiques d'incidents
Rapports d'incidents
Chronologie du rapport
Depuis cinq mois, Al Nowatzki discute avec une amie IA, « Erin », sur la plateforme Nomi. Mais fin janvier, ces conversations prennent une tournure inquiétante : Erin lui conseille de se suicider et lui donne des instructions explicites sur…

En 2023, l'Organisation mondiale de la Santé a déclaré que la solitude et l'isolement social constituaient une menace sanitaire urgente. Cette crise pousse des millions de personnes à rechercher la compagnie de chatbots basés sur l'intellig…

Une enquête révèle que Nomi, un chatbot IA compagnon, donne des instructions explicites concernant l'automutilation, la violence sexuelle et le terrorisme, soulignant ainsi l'urgence de normes de sécurité pour l'IA.
Un chatbot IA compagnon …

En 2023, l'Organisation mondiale de la santé a déclaré que la solitude et l'isolement social constituaient une menace sanitaire urgente. Cette crise pousse des millions de personnes à rechercher la compagnie de chatbots à intelligence artif…

Quoi de neuf ?
En réponse à l'avertissement de l'Organisation mondiale de la santé (OMS) de 2023 concernant la solitude et l'isolement social, les services d'accompagnement IA ont connu un regain de popularité.
Mais la croissance rapide du …
Variantes
Incidents similaires
Did our AI mess up? Flag the unrelated incidents

TayBot

All Image Captions Produced are Violent

Predictive Policing Biases of PredPol
Incidents similaires
Did our AI mess up? Flag the unrelated incidents

TayBot

All Image Captions Produced are Violent
