Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2728

Incidentes Asociados

Incidente 43021 Reportes
Lawyers Denied Entry to Performance Venue by Facial Recognition

Loading...
La tecnología de reconocimiento facial atrae nuevas críticas en medio de la controversia de MSG
ny1.com · 2023

Entrar en la bodega local, pasar por los torniquetes del metro e ir a un espectáculo en el Madison Square Garden son cosas habituales de la ciudad de Nueva York.

También son situaciones en las que los rostros de los neoyorquinos podrían terminar en la pantalla de una computadora o ser escaneados en busca de datos biométricos, todo sin su consentimiento.

En las últimas semanas, el uso del [reconocimiento facial en el lugar] por parte del propietario del Madison Square Garden, James Dolan, ha atraído un nuevo escrutinio de la tecnología.](https://www.ny1.com/nyc/all-boroughs/politics/2023/01/ 25/albany-takes-on-attorney-ban-at-madison-square-garden) Dolan ha estado usando la tecnología para prohibir que los abogados involucrados en litigios contra él ingresen a la arena.

Sin embargo, no son solo los problemas de privacidad o responsabilidad los que están levantando banderas rojas para los críticos de la tecnología. Los opositores dicen que hay discrepancias raciales, no solo en dónde se usa esta tecnología, sino también en la velocidad a la que identifica erróneamente a las personas de color.

Ahora, activistas y legisladores están tratando de hacer sonar la alarma sobre el potencial de la tecnología para causar daño, particularmente a los neoyorquinos morenos y negros, antes de que su uso se generalice aún más.

El senador del estado de Manhattan, Brad Hoylman-Sigal, demócrata, está trabajando en una legislación en Albany que pondría una pausa en el uso de la tecnología de reconocimiento facial por parte de las fuerzas del orden hasta que se establezcan pautas de uso, incluido un marco para la eliminación de las imágenes recopiladas y datos.

“Con la tecnología de reconocimiento facial, prácticamente todo el mundo es sospechoso”, dijo Hoylman-Sigal en una entrevista con NY1. “Cuando entras en un lugar como el Madison Square Garden, tu rostro es escaneado. Sin embargo, no solo tu cara, debo agregar; también su expresión, sus sentimientos, alguna tecnología de reconocimiento facial puede leer los labios. Toda esa información está almacenada”.

"¿Dónde se usa después de que, digamos, Jim Dolan te evalúe mientras entras a un juego de los Knicks?" preguntó. “Eso realmente me preocupa a mí y a otros funcionarios públicos”.

'Automatizando el sesgo'

El NYPD, por su parte, ha implementado tecnología de reconocimiento facial desde al menos 2011. Pero los detalles sobre cómo se usa esa tecnología siguen siendo turbios, y los críticos han cuestionado su precisión.

Los investigadores han descubierto que es más probable que la tecnología identifique erróneamente a las personas de color, las personas trans y las mujeres que a los hombres blancos de mediana edad.

Un estudio de 2019 titulado “Racial Faces in the Wild: Reducing Racial Bias by Information Maximization Adaptation Network” encontró que cuatro importantes herramientas comerciales de reconocimiento facial y cuatro herramientas de reconocimiento facial de última generación identificaron erróneamente caras blancas en parejas el 10 % de las veces, mientras que las caras negras y asiáticas se identificaron erróneamente casi el doble de veces.

[Un estudio del Instituto Nacional de Estándares y Tecnología](https://www.nist.gov/news-events/news/2019/12/nist-study-evaluates-effects-race-age-sex-face-recognition -software) también lanzado en 2019 indicó tasas de error más altas para la coincidencia de pares de caras negras y asiáticas, con tasas de error hasta 100 veces más altas para las personas negras y asiáticas que para las personas blancas en ciertos sistemas de reconocimiento facial.

Y un estudio del Instituto de Tecnología de Massachusetts en 2018 encontró que la tasa de error era más alta cuando se trataba de mujeres negras de piel oscura.

“Esencialmente, para esas mujeres, el sistema bien podría haber estado adivinando el género al azar”, [dijo el MIT en un comunicado de prensa](https://news.mit.edu/2018/study-finds-gender-skin-type -bias-artificial-intelligence-systems-0212) sobre el estudio.

Los opositores argumentan que en una ciudad que tiene un historial de atacar a los musulmanes después de los ataques terroristas del 11 de septiembre de 2001 y de utilizar prácticas policiales racistas como "detener y cachear", el uso de la tecnología de reconocimiento facial es esencialmente una forma de codificar los prejuicios.

En 2013, un juez federal dictaminó que el uso de "detener y cachear" era racialmente discriminatorio e inconstitucional según las enmiendas Cuarta y Decimocuarta.

“Cuando pensamos en el ser humano promedio que tiene un cierto nivel de sesgo, podemos pensar en cómo la creación de tecnología, especialmente la tecnología de reconocimiento facial, es una creación hecha por el hombre y, por lo tanto, está automatizando el sesgo que ya existe. ”, dijo Attiya Latif, organizadora del personal de Amnistía Internacional en Nueva York.

Los neoyorquinos que viven en áreas con mayor riesgo de parar y cachear tienen más probabilidades de estar expuestos a la tecnología de reconocimiento facial, según una investigación realizada por Amnistía Internacional.

La organización de derechos humanos también descubrió que en el Bronx, Brooklyn y Queens, había una mayor concentración de cámaras de videovigilancia o CCTV compatibles con reconocimiento facial en áreas con una mayor proporción de residentes no blancos.

En 2019, Gothamist informó que el fiscal de distrito de Staten Island, Michael McMahon, compró la tecnología Clearview AI.

El software de reconocimiento facial difiere de las formas tradicionales de tecnología al permitir a los usuarios buscar posibles coincidencias faciales en sitios como YouTube, Facebook, LinkedIn y Venmo, en lugar de depender únicamente de las bases de datos gubernamentales de fotografías policiales y licencias de conducir.

Los registros revelados bajo la solicitud de la Ley de Libertad de Información por parte de Legal Aid Society mostraron que la Oficina del Fiscal de Distrito de Staten Island pagó $ 10,000 en mayo de 2019 para que 11 empleados usaran los servicios de Clearview durante un año.

Los funcionarios electos condenaron el uso de este software y pidieron el cese inmediato de su uso.

“La tecnología de reconocimiento facial como Clearview AI tiene la capacidad de no ser una herramienta para la seguridad pública, sino una amenaza para ella”, escribió el Defensor del Pueblo Jumaane Williams [en un comunicado]. (https://www.pubadvocate.nyc.gov/press /williams-statement-staten-island-district-attorneys-use-clearview-ai-facial-recognition/)

Preocupaciones de costos

Los críticos también han expresado su preocupación sobre cuánto dinero gasta la policía de Nueva York en la tecnología.

Los defensores de la privacidad como Albert Fox Cahn, director ejecutivo de Surveillance Technology Oversight Project, una organización de defensa sin fines de lucro organizada por el Urban Justice Center, dicen que los costos de estas herramientas de vigilancia a menudo están enterrados dentro de los presupuestos de la ciudad.

En 2020, el Ayuntamiento, en colaboración con grupos de libertades civiles como S.T.O.P. — el Proyecto de Supervisión de Tecnología de Vigilancia — aprobó la Ley POST, que requiere más transparencia en torno a los gastos de vigilancia.

Diez años de contratos por valor de casi $ 3 mil millones en contratos de vigilancia de la policía de Nueva York fueron descubiertos bajo la ley. Los contratos fueron $2.5 mil millones más de lo que se informó anteriormente e incluyeron más de $400 millones gastados en el Domain Awareness System, un sistema de vigilancia opaco que recopila decenas de miles de imágenes de cámaras de toda la ciudad.

Cahn dice que a pesar de la aprobación de la Ley POST, lograr que la policía de Nueva York divulgue sus registros sobre la tecnología sigue siendo una batalla cuesta arriba.

El grupo se encuentra actualmente en litigio con la policía de Nueva York en virtud de la Ley de Libertad de Información de Nueva York para obligar al departamento a presentar los documentos solicitados sobre el uso de la vigilancia de reconocimiento facial en Times Square. Se espera que regresen a la corte el próximo mes, según Cahn.

Los oficiales de policía no respondieron a la solicitud de comentarios.

Acción política

El mes pasado, la fiscal general de Nueva York, Letitia James, envió una carta a la corporación propietaria del Madison Square Garden pidiéndole que explicara cómo utiliza la tecnología de reconocimiento facial para prohibir que los poseedores de boletos ingresen a sus lugares.

En la carta, James pidió a MSG Entertainment que informe los pasos que está tomando la compañía para cumplir con las leyes estatales de derechos humanos y civiles, y garantizar que su tecnología no conduzca a la discriminación.

“Nuestra política no prohíbe ilegalmente que nadie ingrese a nuestros lugares, y no es nuestra intención disuadir a los abogados de representar a los demandantes en litigios contra nosotros”, escribió un portavoz de MSG Entertainment en un comunicado. “Simplemente estamos excluyendo a un pequeño porcentaje de abogados, y solo durante el litigio activo”.

Actualmente, no existen leyes federales o estatales que regulen el uso de la tecnología. Pero legisladores como Hoylman-Sigal están tratando de cambiar eso.

Junto con su proyecto de ley que detendría efectivamente el uso de la tecnología de reconocimiento facial, el senador estatal está patrocinando un proyecto de ley que prohibiría a los propietarios el uso de sistemas de reconocimiento facial en locales residenciales. Ambos proyectos de ley permanecen en comisión.

A nivel de la ciudad, la concejal Carlina Rivera, cuyo distrito de Manhattan incluye East Village, Gramercy Park y el Lower East Side, presentó un proyecto de ley que requeriría que las agencias de la ciudad presenten informes anuales sobre datos de tecnología de vigilancia, que incluyen, entre otros, la recopilación , uso, compra y venta de los datos. Según la versión actual del proyecto de ley, la policía de Nueva York quedaría excluida de este requisito.

Otro proyecto de ley patrocinado por Rivera definiría cómo se usa la tecnología en los espacios residenciales. La concejal Jennifer Gutiérrez, cuyo distrito incluye Williamsburg, Bushwick y Ridgewood, también presentó un proyecto de ley que requeriría que los propietarios de edificios presenten un registro cuando utilicen el reconocimiento biométrico.

También hay un proyecto de ley patrocinado por Williams que prohibiría la vigilancia no autorizada en los sistemas GPS sin el consentimiento de una persona.

“Esperamos que con esta legislación y una audiencia a nivel del Concejo Municipal, podamos hacer que la policía de Nueva York hable públicamente sobre lo que están haciendo con los datos, cómo pretenden usarlos y expandirlos. eso”, dijo Rivera. “Queremos que esas respuestas lleguen al público de inmediato”.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd