Incidentes Asociados
Incidente 211 Reporte
Tougher Turing Test Exposes Chatbots’ Stupidity (migrated to Issue)
Incidente 293 Reportes
Image Classification of Battle Tanks
Incidente 422 Reportes
Inefficiencies in the United States Resident Matching Program
Incidente 621 Reporte
Bad AI-Written Christmas Carols
Incidente 851 Reporte
AI attempts to ease fear of robots, blurts out it can’t ‘avoid destroying humankind’
Incidente 1591 Reporte
Tesla Autopilot’s Lane Recognition Allegedly Vulnerable to Adversarial Attacks
Incidente 2871 Reporte
OpenAI’s GPT-3 Reported as Unviable in Medical Tasks by Healthcare Firm
Incidente 2981 Reporte
Student-Developed Facial Recognition App Raised Ethical Concerns

Los siguientes incidentes anteriores se han convertido a "problemas" luego de una actualización de definición de incidentes y criterios de ingestión.
21: Una prueba de Turing más dura expone la estupidez de los chatbots
Descripción: El Winograd Schema Challenge 2016 destacó cómo incluso los sistemas de IA más exitosos que participaron en el Challenge solo tuvieron éxito un 3 % más a menudo que el azar.
¿Por qué degradar? Este es un hallazgo académico que muestra una debilidad de la tecnología en lugar de un evento de daño.
Informes anteriores: Estos informes anteriormente estaban asociados con el incidente.
- [Una prueba de Turing más dura expone la estupidez de los chatbots] (https://incidentdatabase.ai/reports/217)
Informes migrados: Los informes asociados con este incidente ahora están asociados con otros incidentes como contexto.
- ninguno
62: Villancicos navideños malos escritos por IA
Descripción: Janelle Shane, científica investigadora de IA, usó 240 villancicos populares para entrenar una red neuronal para escribir sus propios villancicos.
¿Por qué degradado? Fue diseñado para ser humorístico y, de hecho, es humorístico.
Informes anteriores: Estos informes anteriormente estaban asociados con el incidente.
- Villancicos navideños, generados por una red neuronal
- [AI todavía apesta escribiendo villancicos navideños] (https://incidentdatabase.ai/reports/1133)
Informes migrados: Los informes asociados con este incidente ahora están asociados con otros incidentes como contexto.
- ninguno
159: Reconocimiento de carril del piloto automático de Tesla presuntamente vulnerable a ataques adversarios
Descripción: Tencent Keen Security Lab llevó a cabo una investigación de seguridad en el sistema de piloto automático de Tesla e identificó muestras antagónicas diseñadas y el control remoto a través de un gamepad inalámbrico como vulnerabilidades de su sistema, aunque la empresa cuestionó su practicidad en el mundo real.
¿Por qué degradar? Los informes muestran una vulnerabilidad con daños proyectados en lugar de un informe de daños en el mundo real.
Informes anteriores: Estos informes anteriormente estaban asociados con el incidente.
- Laboratorio de seguridad de Tencent Keen: Investigación de seguridad experimental del piloto automático de Tesla
- Tres pegatinas pequeñas en la intersección pueden hacer que el piloto automático de Tesla se desvíe hacia el carril equivocado
Informes migrados: Los informes asociados con este incidente ahora están asociados con otros incidentes como contexto.
- ninguno
287: GPT-3 de OpenAI informado como inviable en tareas médicas por una empresa de atención médica
Descripción: La empresa francesa de atención digital, Nabla, al investigar las capacidades de GPT-3 para documentación médica, soporte de diagnóstico y recomendación de tratamiento, descubrió que su inconsistencia y falta de experiencia científica y médica son inviables y riesgosas en las aplicaciones de atención médica.
¿Por qué degradar? Los informes indican la insuficiencia de ChatGPT para varias tareas para las cuales el sistema no se implementó en el mundo real.
Informes anteriores: Estos informes anteriormente estaban asociados con el incidente.
- Doctor GPT-3: ¿bombo o realidad?
- Los investigadores crearon un chatbot médico OpenAI GPT-3 como experimento. Le dijo a un paciente simulado que se suicidara
- Un chatbot médico que utiliza GPT-3 de OpenAI le dijo a un paciente falso que se suicidara
- Este bot en realidad sugiere a los pacientes que se suiciden
Informes migrados: Los informes asociados con este incidente ahora están asociados con otros incidentes como contexto.
- ninguno
298: La aplicación de reconocimiento facial desarrollada por estudiantes planteó inquietudes éticas
Descripción: La aplicación TheFaceTag, una aplicación de red social desarrollada e implementada en el campus por un estudiante de Harvard, generó inquietudes en torno a su reconocimiento facial, ciberseguridad, privacidad y uso indebido.
¿Por qué degradar? Se predice que los daños ocurrirán, pero aún no han ocurrido.
Informes anteriores: Estos informes anteriormente estaban asociados con el incidente.
- ¿Puedo escanear tu rostro?
- Un estudiante de primer año de Harvard creó una aplicación de redes sociales llamada 'The FaceTag'. Ha provocado un debate sobre la ética del reconocimiento facial
- Una aplicación de un estudiante de Harvard causó controversia sobre su ética
Informes migrados: Los informes asociados con este incidente ahora están asociados con otros incidentes como contexto.
- ninguno
85: AI intenta aliviar el miedo a los robots, deja escapar que no puede ‘evitar la destrucción de la humanidad’
La migración confirmada por los editores - Incidente 85 - probablemente no se ajuste a los criterios de incidentes actuales, donde GPT-3 fue manipulado por editores humanos para exagerar el daño, bordeando el sensacionalismo. https://incidentdatabase.ai/cite/85
Descripción: El 8 de septiembre de 2020, The Guardian publicó un artículo de opinión generado por la IA de generación de texto GPT-3 de OpenAI que incluía amenazas para destruir a la humanidad.
¿Por qué degradado? No está claro quién resultó perjudicado, si es que hubo alguien, a través de los eventos descritos.
Informes anteriores: Estos informes anteriormente estaban asociados con el incidente.
Informes migrados: Los informes asociados con este incidente ahora están asociados con otros incidentes como contexto.
- ninguno
Candidatos a la Migración
Los siguientes incidentes también pueden migrarse en el futuro según la discusión entre los editores de la base de datos de incidentes de AI:
No cumple con la definición y los criterios actuales https://incidentdatabase.ai/cite/42
El incidente 29 se refiere a la "historia del tanque", que puede ser apócrifa. https://incidentdatabase.ai/cite/29