Resumen de incidentes de IA: 22 de diciembre
Bienvenido a la edición de este mes de The Monthly Roundup, un boletín informativo diseñado para brindarle un resumen digerible de los últimos incidentes e informes de la base de datos de incidentes de AI.
Tiempo estimado de lectura: 5 minutos
🗞️ Nuevos incidentes
Incidentes emergentes que ocurrieron el mes pasado:
Incidente #416: Algoritmo de anuncios de empleo de Facebook presuntamente sesgado en contra de las trabajadoras mayores y las trabajadoras mujeres
- ¿Qué pasó? El algoritmo de Facebook fue alegado en una denuncia de Real Women in Trucking haber mostrado selectivamente anuncios de trabajo desproporcionadamente contra trabajadores mayores y mujeres a favor de hombres más jóvenes para puestos de cuello azul.
Incidente #419: La moderación automática de Facebook permitió que se publicaran anuncios que amenazaban a los trabajadores electorales
- ¿Qué pasó? El sistema de moderación automatizado de Facebook no marcó y permitió que se publicaran anuncios que contenían lenguaje violento explícito contra los trabajadores electorales.
Incidente #430: A los abogados se les niega la entrada al lugar de la actuación por reconocimiento facial
- ¿Qué pasó? A los abogados se les prohibió la entrada al Madison Square Garden después de que un sistema de reconocimiento facial los identificó como empleados de un bufete de abogados que actualmente está litigando con el lugar .
Incidente #432: El solucionador de programación de tripulación de Southwest Airlines degenera la red de vuelos
- ¿Qué pasó? Southwest Airlines dejó a los pasajeros varados durante días en toda la red de vuelos cuando el software de programación de la tripulación de Southwest desarrollado por General Electric no pudo recuperarse repetidamente de las cancelaciones de vuelos inducidas por el clima.
📎 Nuevos desarrollos
Incidentes más antiguos que tienen nuevos informes o actualizaciones.
Incidente original | New report(s) |
---|---|
Incidente #279: El algoritmo "For You" de TikTok expuso a los usuarios jóvenes a contenido a favor del trastorno alimentario |
|
Incidente #413Miles de respuestas incorrectas producidas por ChatGPT publicadas en Stack Overflow |
|
Incidente #418Uber ha bloqueado a conductores Indios de sus cuentas por fallas en su tecnología de reconocimiento facial |
|
Incidente #420Los usuarios pasaron por alto fácilmente los filtros de contenido de ChatGPT de OpenAI |
|
Incidente #421Difusión estable supuestamente usó obras de artistas sin permiso para entrenamiento de IA |
|
Incidente #423Lensa AI produjo "avatares mágicos" no deseados sexualmente explícitos o sugestivos para mujeres |
|
Incidente #424Las herramientas de supervisión de IA de las universidades supuestamente no cumplieron con el umbral legal de consentimiento de Canadá |
|
Incidente #425State Farm supuestamente discriminó a los clientes afroamericanos en el pago de reclamaciones |
|
Incidente #427El frenado repentino de los taxis de crucero supuestamente pone a las personas en riesgo |
|
Incidente #431Ladrones accedieron a cuentas bancarias de hombres homosexuales drogados usando el reconocimiento facial de sus teléfonos |
|
Incidente #434El frenado repentino del piloto automático de Tesla supuestamente causó la colisión de ocho autos |
|
🗄 De los archivos
En cada edición, presentamos uno o más incidentes históricos que encontramos estimulantes.
Las cancelaciones masivas de vuelos de Southwest Airlines destacaron cómo el clima extremo puede interrumpir las operaciones de los sistemas inteligentes. Los siguientes ejemplos de la base de datos de incidentes de AI muestran que esta no es la primera vez que el clima interfiere con los sistemas inteligentes.
A fines de diciembre de 2021, Google Maps dirigió a los conductores en el área de Sierra Nevada a caminos cerrados e incluso peligrosos en medio de una nevada récord (Incidente #155), mientras que en Febrero de 2019 Apple Maps supuestamente dirigió a una pareja en un viaje de esquí en las montañas hacia una ruta poco convencional donde los conductores se encontraron atrapados en un camino sin pavimentar en la nieve (Incidente #288). Los autos sin conductor también han tenido dificultades para navegar en la nieve, como se demostró en febrero de 2016 cuando uno de los vehículos autónomos de Volvo experimentó ceguera del sensor, lo que generó preocupaciones sobre problemas futuros para los autos sin conductor en regiones nevadas (Incidente #70).
La historia ha demostrado que circunstancias raras e impredecibles desafían los sistemas inteligentes, y el clima continuará sorprendiendo a los humanos y rompiendo sus sistemas informáticos.
👇 Profundizando más
-
Todos los nuevos incidentes agregados a la base de datos en el último mes, agrupados por tema:
- Privacidad y vigilancia: #424, #425, #433
- Reconocimiento facial: #412, #418, #430, #431
- Sesgo y discriminación: #429
- Redes sociales: #414, #415, #416, #417, #419
- GPT: #413, #420
- Errores impactantes: #428, #432
- Vehículos autónomos: #426, #427, #434
- Imágenes y deepfakes generados por IA: #421, #422, #423
-
Explore grupos de incidentes similares en Visualización espacial
-
Consulte Vista de tabla para obtener una vista completa de todos los incidentes.
-
Obtenga información sobre presuntos desarrolladores, implementadores y partes perjudicadas en Página de entidades
🦾 Apoya nuestros esfuerzos
¿Sigues leyendo? ¡Ayúdanos a cambiar el mundo para mejor!
- Comparta este boletín en LinkedIn, Twitter y Facebook
- Enviar incidentes a la base de datos
- Contribuir a la funcionalidad de la base de datos