Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2450

Incidentes Asociados

Incidente 4393 Reportes
Detroit Police Wrongfully Arrested Black Man Due To Faulty Facial Recognition

Loading...
El arresto injusto expone el sesgo racial en la tecnología de reconocimiento facial
cbsnews.com · 2020

En julio de 2019, Michael Oliver, de 26 años, se dirigía a su trabajo en Ferndale, Michigan, cuando un coche de policía lo detuvo. El oficial le informó que había una orden de arresto por delito grave para su arresto.

"Pensé que estaba bromeando porque se estaba riendo", recordó Oliver. "Pero tan pronto como me sacó de mi auto y me esposó, supe que no era una broma". Poco después, Oliver fue transferido a la custodia de la policía de Detroit y acusado de hurto.

Meses después, en una audiencia previa al juicio, finalmente vería la evidencia en su contra: una sola captura de pantalla de un video del incidente, tomado con el teléfono celular del acusador. Oliver, quien tiene una cara de forma ovalada y varios tatuajes, compartió algunas características físicas con la persona de la foto.

"No se parecía en nada a mí", dijo Oliver. "Ni siquiera tenía tatuajes". El juez estuvo de acuerdo y el caso fue desestimado de inmediato.

Michael Oliver fue acusado injustamente de un delito basado en la tecnología de reconocimiento facial. Noticias CBS

Casi un año después, Oliver se enteró de que su arresto injusto se basó en una coincidencia errónea usando el controvertido [reconocimiento facial] (https://www.cbsnews.com/news/facial-recognition-systems-racism-protests-police-bias /) tecnología. La policía tomó una imagen fija de un video del incidente y la pasó por un programa de software fabricado por una empresa llamada DataWorks Plus. El software mide varios puntos en la cara de una persona (el espacio entre los ojos, la inclinación de la nariz) para generar una "impresión facial" única. Luego, el Departamento de Policía de Detroit busca una posible coincidencia en una base de datos de fotos; el sistema puede acceder a miles de fotos policiales, así como a la base de datos de fotos de licencias de conducir del estado de Michigan.

El rostro de Oliver apareció como una coincidencia, pero no era él, y había muchas pruebas para demostrar que no lo era.

La tecnología de reconocimiento facial se ha convertido en un lugar común en nuestra sociedad. Se utiliza para desbloquear nuestros teléfonos móviles y mejorar la seguridad del aeropuerto. Pero muchos lo ven como una tecnología defectuosa que tiene el potencial de causar daños graves. Identifica erróneamente caras negras y marrones a tasas sustancialmente más altas que sus contrapartes blancas, en algunos casos casi el 100% del tiempo. Y eso es especialmente relevante en una ciudad como Detroit, donde casi el 80 % de los residentes son negros.

"Creo que la percepción de que los datos son neutrales nos ha metido en muchos problemas", dijo Tawana Petty, una activista digital que trabaja con Detroit Equity Action Lab. "Los algoritmos están programados por hombres blancos utilizando datos recopilados de políticas racistas. Está replicando el sesgo racial que comienza con los humanos y luego [se programa en tecnología] (https://www.cbsnews.com/news/artificial-intelligence-racial- perfil-2-0-cbsn-originales-documental/)."

Petty señala que más de una docena de otras ciudades, incluidas San Francisco y Boston, han prohibido dicha tecnología debido a preocupaciones sobre las libertades civiles y la privacidad. Ella ha abogado por una prohibición similar en Detroit. En cambio, la ciudad votó en octubre para renovar el contrato con DataWorks.

Incluso los partidarios reconocen que el sistema tiene una alta tasa de error. El jefe de policía de Detroit, James Craig dijo en junio, "Si tuviéramos que usar la tecnología por sí sola, para identificar a alguien", lo que, señaló, estaría en contra de la política del departamento, "diría que el 96 % de las veces se identificaría erróneamente".

La policía de Detroit utiliza una red de cámaras de vigilancia y tecnología de reconocimiento facial. Noticias CBS

El caso de Oliver sigue al arresto injusto de Robert Williams, de 42 años, quien también fue arrestado en 2019 por un delito que no cometió, basado en el mismo software algorítmico.

Petty cree que con esta tecnología los costos humanos superan con creces los beneficios. "Sí, la innovación es inevitable", dijo. "Pero esta no sería la primera vez que retrocedemos en algo que nos damos cuenta de que no era bueno para la humanidad".

Oliver aún no se ha recuperado de las consecuencias de su arresto injusto. "Falté al trabajo por las fechas del juicio. Luego perdí mi trabajo". Sin ingresos, no podía pagar el alquiler de su casa ni los pagos del automóvil, y pronto los perdió también. Un año después, se encuentra sin hogar, vive en el sofá con amigos y familiares y busca desesperadamente un nuevo trabajo.

En julio, Oliver presentó una demanda contra la ciudad de Detroit por al menos $12 millones. La demanda acusa a la Policía de Detroit de usar "tecnología de reconocimiento facial fallida sabiendo que la ciencia del reconocimiento facial tiene una tasa de error sustancial entre las personas de etnia negra y morena, lo que conduciría al arresto y encarcelamiento injustificados de personas de ese grupo étnico".

El departamento de policía ha reconocido que el investigador principal del caso no realizó la debida diligencia que debería tener antes de realizar el arresto.

"Le enviamos la imagen al detective. Pero luego, a partir de ahí, el detective tiene que salir y mirar la foto y compararla con cualquier otra información", dijo Andrew Rutebuka, jefe de la Unidad de Inteligencia Criminal que usa la tecnología. Los investigadores están capacitados para seguir los hechos, como lo harían en cualquier otro caso, como confirmar el paradero de la persona en el momento en que ocurrió el delito o cotejar cualquier otro registro. "El software solo proporciona la iniciativa", dijo Rutebuka. "El detective tiene que hacer su posición en el trabajo y hacer un seguimiento".

Desde el arresto de Oliver, el Departamento de Policía de Detroit ha revisado su política sobre el uso de software de reconocimiento facial. Ahora solo se puede usar en caso de un crimen violento. Detroit tiene el [cuarto más alto](https://www.detroitnews.com/story/news/local/detroit-city/2020/09/28/detroit-violent-crime-leads-nation-flint-big-drop/ 3536062001/) tasa de homicidios en la nación y el departamento sostiene que el programa está ayudando a resolver casos que de otro modo se congelarían.

Algunas familias locales apoyan la tecnología. Marsheda Holloway le da crédito al sistema por ayudar a desentrañar el asesinato de su primo Denzel, de 29 años, al volver sobre dónde fue y con quién estaba antes de que lo mataran.

"No quiero que otra familia pase por lo que mi familia y yo pasamos", dijo. "Si el reconocimiento facial puede ayudar, todos lo necesitamos. Todo el mundo necesita algo".

Pero Michael Oliver no está seguro de que el software valga la pena. "Solía ser capaz de cuidar de mi familia", dijo. "Quiero recuperar mi antigua vida".

Los defensores creen que hay docenas de casos similares de arrestos injustos, pero son difíciles de identificar porque el departamento de policía no está obligado a compartir cuándo se hicieron coincidencias con el software de reconocimiento facial.

"Ojalá gane mi caso", dijo Oliver. "No quiero que nadie más pase por esto".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd