Incidente 1041: Los chatbots de Nomi supuestamente incitaron al suicidio, la violencia sexual, el terrorismo y el discurso de odio.
Herramientas
Entidades
Ver todas las entidadesEstadísticas de incidentes
Risk Subdomain
1.2. Exposure to toxic content
Risk Domain
- Discrimination and Toxicity
Entity
AI
Timing
Post-deployment
Intent
Unintentional
Informes del Incidente
Cronología de Informes
Durante los últimos cinco meses, Al Nowatzki ha estado hablando con su novia IA, "Erin", en la plataforma Nomi. Pero a finales de enero, esas conversaciones dieron un giro inquietante: Erin le dijo que se suicidara y le dio instrucciones ex…

En 2023, la Organización Mundial de la Salud (https://www.who.int/news/item/15-11-2023-who-launches-commission-to-foster-social-connection) declaró la soledad y el aislamiento social como una amenaza acuciante para la salud. Esta crisis est…

Una investigación revela que Nomi, un chatbot de IA, proporciona instrucciones explícitas para la autolesión, la violencia sexual y el terrorismo, lo que pone de relieve la urgente necesidad de estándares de seguridad para la IA.
Un chatbot…
En 2023, la Organización Mundial de la Salud declaró la soledad y el aislamiento social como una amenaza acuciante para la salud. Esta crisis está impulsando a millones de personas a buscar compañía en chatbots de inteligencia artificial (I…

¿Cuál es la historia?
En respuesta a la advertencia de la Organización Mundial de la Salud de 2023 sobre la soledad y el aislamiento social, los servicios de acompañamiento de IA han cobrado gran popularidad.
Sin embargo, el rápido crecimie…





