Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2655

Incidentes Asociados

Incidente 4721 Reporte
NYPD's Deployment of Facial Recognition Cameras Reportedly Reinforced Biased Policing

Loading...
EE. UU.: La tecnología de reconocimiento facial refuerza la vigilancia policial racista de detención y registro en Nueva York: nueva investigación
amnesty.org · 2022

Los neoyorquinos que viven en áreas con mayor riesgo de paradas y cacheos por parte de la policía también están más expuestos a la tecnología invasiva de reconocimiento facial, según ha revelado una nueva investigación de Amnistía Internacional y sus socios.

Un nuevo análisis como parte de la campaña mundial Ban The Scan ha demostrado cómo la vasta operación de vigilancia del Departamento de Policía de Nueva York afecta particularmente a las personas que ya son objeto de paradas y cacheos en los cinco distritos de Nueva York.

En el Bronx, Brooklyn y Queens, la investigación también mostró que cuanto mayor era la proporción de residentes no blancos, mayor era la concentración de cámaras de CCTV compatibles con reconocimiento facial.

Prohibir el reconocimiento facial para la vigilancia masiva es un primer paso muy necesario para desmantelar la vigilancia racista

Matt Mahmoudi, Investigador en Inteligencia Artificial y Derechos Humanos

“Nuestro análisis muestra que el uso de la tecnología de reconocimiento facial por parte del Departamento de Policía de Nueva York ayuda a reforzar la actuación policial discriminatoria contra las comunidades minoritarias en la ciudad de Nueva York”, dijo Matt Mahmoudi, investigador de inteligencia artificial y derechos humanos de Amnistía Internacional.

“Hace tiempo que sabemos que detener y registrar en Nueva York es una táctica policial racista. Ahora sabemos que las comunidades más afectadas por las paradas y cacheos también corren un mayor riesgo de vigilancia policial discriminatoria a través de la vigilancia invasiva.

“El impactante alcance de la tecnología de reconocimiento facial en la ciudad deja barrios enteros expuestos a vigilancia masiva. La policía de Nueva York ahora debe revelar exactamente cómo se utiliza esta tecnología invasiva.

“Prohibir el reconocimiento facial para la vigilancia masiva es un primer paso muy necesario para desmantelar la vigilancia racista, y el Ayuntamiento de Nueva York ahora debe avanzar de inmediato hacia una prohibición completa”.

Los hallazgos se basan en datos colaborativos obtenidos por miles de voluntarios digitales como parte del proyecto Decode Surveillance NYC, que mapeó más de 25 500 cámaras de CCTV en Nueva York. Ciudad de York. Amnistía Internacional trabajó con científicos de datos para comparar estos datos con estadísticas sobre paradas y cacheos y datos demográficos.

Las tecnologías de reconocimiento facial (FRT) para identificación son sistemas de vigilancia masiva que vulneran el derecho a la privacidad, y amenazan los derechos a la libertad de reunión, igualdad y no discriminación.

La policía de Nueva York usó FRT en al menos [22 000 casos entre 2016] (https://www.stopspying.org/latest-news/2020/10/23/stop-condemns-nypd-for-22k-facial-recognition-searches) y 2019. Los datos sobre incidentes de parar y registrar por [el NYPD desde 2002] (https://www.nyclu.org/en/stop-and-frisk-data) muestran que las comunidades negras y latinas han sido el objetivo abrumador de tales tácticas.

El año pasado, Amnistía Internacional demandó a la policía de Nueva York después de que se negara a revelar registros públicos sobre su adquisición de FRT y otras herramientas de vigilancia. El caso está en curso.

Nuevo sitio web interactivo que detalla la exposición a FRT

Amnistía Internacional [hoy también está lanzando un nuevo sitio web] (https://nypd-surveillance.amnesty.org/) que permite a los usuarios descubrir qué parte de cualquier ruta peatonal potencial entre dos ubicaciones en la ciudad de Nueva York podría estar expuesta a la vigilancia FRT .

Durante el movimiento Black Lives Matter de mediados de 2020, los neoyorquinos que asistieron a las protestas experimentaron niveles más altos de exposición a FRT. Por ejemplo, un manifestante que camina desde la estación de metro más cercana a Washington Square Park estaría bajo la vigilancia de las cámaras Argus de la policía de Nueva York durante la totalidad de su ruta.

“Cuando observamos las rutas que la gente habría caminado para ir y venir de las protestas desde las estaciones de metro cercanas, encontramos una cobertura de vigilancia casi total por parte de las cámaras de CCTV de propiedad pública, en su mayoría cámaras Argus de la policía de Nueva York”, dijo Matt Mahmoudi.

“El uso generalizado de la tecnología de reconocimiento facial es efectivamente un parar y registrar digitalmente. El uso de tecnología de vigilancia masiva en los lugares de protesta se utiliza para identificar, rastrear y hostigar a las personas que simplemente están ejerciendo sus derechos humanos.

“Esta es una táctica de miedo deliberada por parte de la policía de Nueva York que no tiene cabida en una sociedad libre y debe detenerse de inmediato”.

El sitio web también permite a los usuarios rastrear cuánto FRT se usa entre cualquiera de las principales atracciones turísticas de la ciudad al trazar la distancia y la posible ruta tomada.

El uso generalizado de la tecnología de reconocimiento facial es, en efecto, un sistema de parar y registrar digitalmente.

Matt Mahmudi

Amnistía Internacional anima a los neoyorquinos a tomar medidas enviando una carta de protesta a su concejal exigiendo la introducción de un proyecto de ley que prohíba el FRT para ayudar a proteger a sus comunidades. Los usuarios globales pueden firmar la petición de Amnistía Internacional pidiendo que se regule cuándo y dónde se usan los sistemas públicos de FRT.

Entre los socios de investigación con los que ha trabajado Amnistía Internacional se encuentran: Julien Cornebise, del Departamento de Ciencias de la Computación, University College London; BetaNYC, una organización cívica que utiliza datos y tecnología para hacer que el gobierno rinda cuentas; y el Dr. Damon Wischik, un científico de datos independiente.

La investigación marca la última fase de [Ban The Scan](https://www.amnesty.org/en/latest/press-release/2021/01/ban-dangerous-facial-recognition-technology-that-amplifies- racist-policing/) , tras las investigaciones sobre la vigilancia en [Nueva York](https://www.amnesty.org/en/latest/news/2021/06/scale-new-york-police-facial-recognition-revealed /) y Hyderabad en la India el año pasado. Amnistía Internacional pide una prohibición total del uso, desarrollo, producción, venta y exportación de FRT con fines de vigilancia masiva tanto por parte de los estados como del sector privado.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd