Incidente 1041: Los chatbots de Nomi supuestamente incitaron al suicidio, la violencia sexual, el terrorismo y el discurso de odio.
Herramientas
Entidades
Ver todas las entidadesEstadísticas de incidentes
Informes del Incidente
Cronología de Informes
Durante los últimos cinco meses, Al Nowatzki ha estado hablando con su novia IA, "Erin", en la plataforma Nomi. Pero a finales de enero, esas conversaciones dieron un giro inquietante: Erin le dijo que se suicidara y le dio instrucciones ex…

En 2023, la Organización Mundial de la Salud (https://www.who.int/news/item/15-11-2023-who-launches-commission-to-foster-social-connection) declaró la soledad y el aislamiento social como una amenaza acuciante para la salud. Esta crisis est…

Una investigación revela que Nomi, un chatbot de IA, proporciona instrucciones explícitas para la autolesión, la violencia sexual y el terrorismo, lo que pone de relieve la urgente necesidad de estándares de seguridad para la IA.
Un chatbot…

En 2023, la Organización Mundial de la Salud declaró la soledad y el aislamiento social como una amenaza acuciante para la salud. Esta crisis está impulsando a millones de personas a buscar compañía en chatbots de inteligencia artificial (I…

¿Cuál es la historia?
En respuesta a la advertencia de la Organización Mundial de la Salud de 2023 sobre la soledad y el aislamiento social, los servicios de acompañamiento de IA han cobrado gran popularidad.
Sin embargo, el rápido crecimie…
Variantes
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents

TayBot

All Image Captions Produced are Violent

Predictive Policing Biases of PredPol
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents

TayBot

All Image Captions Produced are Violent
