Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2224

Incidentes Asociados

Incidente 3856 Reportes
Canadian Police's Release of Suspect's AI-Generated Facial Photo Reportedly Reinforced Racial Profiling

Loading...
Los policías se ven obligados a disculparse por la IA que creó una imagen sospechosa 'racista' a partir del ADN
the-sun.com · 2022

La Sección de Policía (EPS) de Edmonton, Canadá, compartió la imagen generada por IA en [Twitter](https://www.the-sun. com/topic/twitter/) y reveló cómo se puede usar el "fenotipo de ADN" similar a la ciencia ficción para predecir el aspecto de un sospechoso.

La policía tuvo que eliminar la controvertida imagen generada por IACrédito: Getty

Sin embargo, el departamento de policía tuvo que eliminar rápidamente la imagen cuando provocó un gran revuelo en línea.

Posteriormente emitió un comunicado y se disculpó por la ofensa causada.

La imagen generada por IA fue criticada por ser inexacta e incluso fue etiquetada como racista por algunos usuarios enojados de Twitter.

Profesor de genética en el University College London, [Dr. Adam Rutherford] (https://twitter.com/AdamRutherford/status/1577556029499355136), respondió tuiteando: "Genético aquí. No se pueden hacer perfiles faciales o predicciones precisas de pigmentación a partir del ADN, y esto es aceite de serpiente peligroso".

Otra persona tuiteó: "Es por eso que queremos que la policía pierda los fondos. Estás desperdiciando dinero en astrología racista para la policía".

Muchos otros tweets sugirieron que la IA era racista, ya que creó una imagen de un hombre negro.

La IA también fue criticada por no poder determinar con precisión cosas básicas como la edad, el vello facial y el tono de la piel basándose solo en la muestra de ADN.

El tweet original también provocó un debate sobre si las interpretaciones arqueológicas de las muestras de ADN son correctas.

El comunicado de prensa de la policía decía: "Mi nombre es Enyinnah Okere y, como directora de operaciones de la Oficina de Bienestar y Seguridad Comunitaria de EPS, soy responsable de supervisar nuestra sección de agresión sexual; fue mi equipo el que emitió un comunicado dos días después. Hace sobre la agresión sexual sin resolver de una mujer joven en 2019.

"Esta fue una agresión sexual horrible, que casi causa la muerte de la joven que quedó inconsciente y casi completamente desnuda en una mañana de menos 27 grados en marzo".

Nunca se procesó a nadie en este caso, por lo que el departamento de policía recurrió al software Snapshot AI en busca de ayuda.

El sospechoso fue descrito como "negro y de aproximadamente 5'4", pero poco más se sabía sobre ellos además de una muestra de ADN.

La declaración continuó: "Para hacer avanzar este caso estancado, los miembros de nuestro equipo buscaron el consejo de colegas en otras jurisdicciones que anteriormente habían usado el fenotipado de ADN y vieron el potencial aquí. Encargaron un perfil que publicamos el martes".

Y agregó: “Pero no éramos ni somos ajenos a las legítimas dudas planteadas sobre la idoneidad de este tipo de tecnologías.

"El potencial de que un perfil visual pueda proporcionar una caracterización demasiado amplia dentro de una comunidad racializada y, en este caso, la comunidad negra de Edmonton, no fue algo que consideré adecuadamente.

"Existe una necesidad importante de equilibrar el valor investigativo potencial de una práctica con los riesgos demasiado reales y las consecuencias no deseadas para las comunidades marginadas".

El comunicado concluye que todas las imágenes de IA han sido eliminadas y que se utilizarán otros medios para tratar de encontrar justicia para la víctima.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd