Resumen de incidentes de IA - 22 de octubre
Bienvenido a la edición de este mes de The Monthly Roundup, un boletín informativo diseñado para brindarle un resumen digerible de los últimos incidentes e informes de la base de datos de incidentes de AI.
Tiempo estimado de lectura: 5 minutos
🗞️ Nuevos incidentes
Incidentes que ocurrieron el mes pasado:
Incidente n.º 377: El modelo de Weibo tiene dificultades para detectar cambios en el habla censurada
- ¿Qué sucedió? El modelo de moderación de usuarios del sitio de redes sociales chino Weibo tiene dificultades para mantenerse al día con la jerga cambiante de los usuarios en desafío a los censores estatales chinos.
- ¿Cómo no funciona la IA? Aunque el sitio dice que ha perfeccionado su "modelo de identificación de palabras clave" para poder filtrar el uso de palabras homófonas y mal escritas intencionalmente, la diversidad y la naturaleza en constante evolución del lenguaje en línea en China hace que sea poco probable que su modelo pueda prohibir por completo el lenguaje controvertido.
- ¿Cuál fue el impacto de este incidente? Los ciudadanos chinos pudieron socavar los esfuerzos de Weibo para imponer la censura del lenguaje prohibido, lo que les permitió discutir temas controvertidos como la corrupción gubernamental.
- ¿Quién estuvo involucrado? Weibo desarrolló e implementó un sistema de IA que perjudicó a Weibo y al gobierno chino.
- 🚨 Nota del editor: La definición de presunto "daño" a una parte no indica que sea responsabilidad de la comunidad en general mitigar o prevenir ese daño. Aunque este incidente cumple con los criterios, los editores de la base de datos no afirman si se debe evitar que este incidente se repita. El AIID indexa todos los incidentes que cumplen con su definición de incidente; nuestra responsabilidad es dar a conocer tales incidentes (por ejemplo, Incidente #13, donde se demostró que los modelos de toxicidad del lenguaje son fáciles de engañar).
Incidente n.º 383: Se informa que el minialtavoz de Google Home lee N-Word en el título de la canción en voz alta
- ¿Qué sucedió? Los usuarios denunciaron que el altavoz Google Home Mini anunciaba en voz alta la palabra n previamente censurada en el título de una canción. No está claro cuándo o cómo los oradores de Google dejaron de censurar la palabra n.
- ¿Quién estuvo involucrado? Google Home desarrolló e implementó un sistema de IA que perjudicó a usuarios negros de Google Home Mini y usuarios de Google Home Mini.
Incidente n.º 384: Conductor de Glovo en Italia despedido por correo electrónico automatizado después de morir en un accidente
- ¿Qué sucedió? El sistema automatizado de la empresa de entregas Glovo envió un correo electrónico para despedir a un empleado por "incumplimiento de los términos y condiciones" después de que el empleado muriera en un accidente automovilístico mientras realizaba una entrega en nombre de Glovo.
- ¿Quién estuvo involucrado? Glovo desarrolló e implementó un sistema de IA que perjudicó a Sebastian Galassi y a [la familia de Sebastian Galassi](/entities/sebastian -la-familia-de-galassi).
Incidente n.° 385: Publicación de la policía canadiense de la foto facial generada por IA del sospechoso supuestamente reforzó la elaboración de perfiles raciales
- ¿Qué sucedió? El Servicio de Policía de Edmonton (EPS) en Canadá publicó una imagen facial de un hombre afroamericano sospechoso generada por un algoritmo que usa fenotipado de ADN, que fue denunciado por la comunidad local como perfilado racial.
- ¿Cómo funciona la IA? El sistema de IA llamado Instantánea crea un boceto facial compuesto basado en atributos de apariencia física generados por fenotipado de ADN, es el proceso de predecir la apariencia física y la ascendencia a partir de evidencia de ADN no identificada.
- ¿Cómo causó daño esta IA? Los compuestos de fenotipado de ADN son aproximaciones de apariencia, y no está claro si los perfiles Snapshot coinciden con sus sujetos. En este caso, dado que el sospechoso generado por IA era negro, planteó preocupaciones sobre la discriminación racial en una comunidad marginada.
- ¿Quién estuvo involucrado? Parabon Nanolabs desarrolló un sistema de IA desplegado por el Servicio de Policía de Edmonton, que perjudicó a residentes negros en Edmonton .
📎 Nuevos desarrollos
Incidentes antiguos que tienen nuevos informes o actualizaciones.
Incidente original | Nuevo(s) informe(s) |
---|---|
Incidente n.° 376: El algoritmo de RealPage elevó los precios de alquiler, supuestamente de forma artificial |
|
Incidente n.° 373: El algoritmo MiDAS de beneficios de desempleo de Michigan emitió reclamos de fraude falsos para miles de personas |
|
Incidente n.° 267: Algoritmo de inteligencia artificial Clearview creado a partir de fotos extraídas de perfiles de redes sociales sin consentimiento |
|
Incidente n.° 382: La exposición de contenido dañino en Instagram contribuyó al suicidio de una adolescente |
|
🗄 De los archivos
Cada edición, destacamos uno o más incidentes históricos que encontramos estimulantes.
Mientras que en octubre vimos a humanos burlando un sistema automatizado para evitar la censura estatal en China, otros incidentes históricos agregados recientemente a la base de datos destacan los sistemas de IA que violan la privacidad para promover intereses estatales o comerciales. Un incidente de 2019 se hace eco de las preocupaciones de la vigilancia estatal con el gobierno de Uganda, según se informa, utilizando software de reconocimiento facial para monitorear a la oposición política. Mientras tanto, en el sector privado, Uber supuestamente violó los derechos de privacidad de los datos de los conductores para monitorear el desempeño en 2020 y McDonald's enfrentó una demanda en 2021 por violar potencialmente las leyes de privacidad de Illinois al recopilar datos de voz a través de su chatbot de acceso directo.
Aparte del uso deliberado de los sistemas de inteligencia artificial para recopilar y utilizar datos privados, hay varios ejemplos anteriores de sistemas automatizados que recopilan o comparten esos datos por error. En 2018, Amazon Echo envió por error una conversación privada grabada entre marido y mujer a uno de los empleados del marido sin que ninguno de ellos lo supiera. Según los informes, GPT-2, el predecesor de GPT-3, pudo recitar información de identificación personal (PII) que aprendió a través del entrenamiento en cantidades masivas de datos de Internet.
Estos sucesos de los últimos años resaltan temas comunes de preocupaciones de privacidad que son cada vez más preocupaciones de los sistemas legales que brindan derechos a la privacidad y la protección de datos.
– por Janet Schwartz
👇 Profundizando más
- Todos los nuevos incidentes agregados a la base de datos en el último mes, agrupados por tema:
- Privacidad y vigilancia: #354, #357, #360, [#361](/cite/ 361), #371, #372, #377
- Reconocimiento facial: #358, #365, #368, #373, #375, #385
- Sesgo y discriminación: #355, #356, #359, [#367](/cite/ 367), #374, #383
- Redes sociales: #362, #363, #366, #380, #382
- ImpactoErrores completos: #364, #379, #384
- Competencia desleal: #370, #376
- Vehículos autónomos: #378, #381
- Desplazamiento laboral: #369
- Explore grupos de incidentes similares en Visualización espacial
- Consulte Vista de tabla para obtener una vista completa de todos los incidentes
- Obtenga información sobre presuntos desarrolladores, implementadores y partes perjudicadas en Página de entidades
🦾 Apoya nuestros esfuerzos
¿Seguir leyendo? ¡Ayúdanos a cambiar el mundo para mejor!
- Comparta este boletín en LinkedIn, Twitter y [Facebook](https ://www.facebook.com/IncidentsDB)
- Enviar incidentes a la base de datos
- Contribuir a la funcionalidad de la base de datos