Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2665

Incidentes Asociados

Incidente 43021 Reportes
Lawyers Denied Entry to Performance Venue by Facial Recognition

Loading...
Cómo la IA y el reconocimiento facial pueden obstaculizar el acceso a la justicia
news.bloomberglaw.com · 2023

Madison Square Garden Entertainment Corp. recibió recientemente [críticas] considerables (https://news.bloomberglaw.com/privacy-and-data-security/madison-square-garden-pressed-by-ny-ag-james-over-face -escaneos) sobre el uso de la tecnología de reconocimiento facial para identificar al abogado contrario y evitar su acceso a sus propiedades y lugares de entretenimiento.

El conglomerado de entretenimiento justifica su política diciendo que no excluye a los abogados “en base a las clases protegidas identificadas en las leyes estatales y federales de derechos civiles”.

Si bien la política puede seguir la letra de la [ley] de la ciudad de Nueva York (https://legistar.council.nyc.gov/LegislationDetail.aspx?ID=3704369&GUID=070402C0-43F0-47AE-AA6E-DEF06CDF702A#:~:text= Cualquier%20establecimiento%20comercial%20que%20recopila,las%20entradas%20de%20clientes%20del%20establecimiento%20comercial), evita su espíritu mediante el uso de software de escaneo para apuntar de manera discriminatoria a los abogados de los bufetes de abogados que litigan en su contra, incluso aquellos que no están directamente involucrados en esa acción legal.

Esto ha provocado un importante debate sobre qué tiene más mérito: los derechos de propiedad de una corporación o la privacidad de un abogado y los derechos de la Primera Enmienda.

Inequidad y sesgo

La compañía que opera el Madison Square Garden y el Radio City Music Hall afirma que emplea un sistema específico que utiliza imágenes de abogados de los sitios web de firmas de abogados específicas para "entrenar" su sistema.

Pero la tecnología aún no puede garantizar la ausencia de discriminación algorítmica. Su uso de esta manera presenta un posible efecto inhibidor tanto en la libertad de expresión como en el acceso a la justicia si un abogado pudiera rechazar la representación de un cliente para evitar la aplicación de esta política.

La política del conglomerado no tiene en cuenta las desigualdades y los sesgos algorítmicos que pueden ser inherentes a ese tecnología.

Los sistemas de reconocimiento facial que no están adecuadamente capacitados con diversos datos pueden generar sesgos algorítmicos. La injusticia luego se filtra en una amplia gama de aplicaciones, desde buscar empleo o obtener un préstamo hasta ser identificado erróneamente por un delito.

Reglamento requerido

Sin regulación, tales aplicaciones distópicas de la tecnología pueden proliferar. La capacidad de crear y hacer cumplir tecnológicamente una lista de enemigos es contraria a una democracia saludable.

En 2019, el Congreso estaba a punto de tomar medidas sobre la [Ley de privacidad de reconocimiento facial comercial] (https://www.congress.gov/bill/116th-congress/senate-bill/847), que habría prohibido a las entidades recopilar, procesar, almacenar o controlar datos de reconocimiento facial.

Esto es a menos que dichas entidades proporcionaran documentación que explicara las capacidades y limitaciones y obtuvieran el consentimiento afirmativo explícito de los usuarios finales para usar dicha tecnología después de proporcionar un aviso sobre el uso de datos de reconocimiento facial.

El proyecto de ley no se aprobó una vez que la pandemia desvió la atención a otros asuntos. Si bien la legislación federal sigue pendiente, Nueva York avanzó su propia [regulación](https://www.nysenate.gov/newsroom/press-releases/brad-hoylman-sigal/senators-hoylman-sigal-krueger-and-assembly-member -simone) para frenar posibles prácticas discriminatorias.

El Colegio de Abogados del Estado de Nueva York también está estudiando el impacto del software de reconocimiento facial y ha formado un [grupo de trabajo](https://nysba.org/new-york-state-bar-association-is-studying-the-impact- of-facial-recognition-software-on-individual-freedom/) para investigar el efecto de la tecnología en la capacidad de un abogado para representar a sus clientes sin temor a represalias.

La regulación es necesaria para lograr un equilibrio entre los derechos de unos pocos y el bien público. Dicha regulación puede proscribir el ataque deliberado al derecho de una persona a la libertad de expresión, la privacidad, el acceso a la justicia y la seguridad personal.

Fondo

El reconocimiento facial debe su génesis al desarrollo de la visión artificial en la década de 1960. A principios de la década de 1990, dos agencias del gobierno de EE. UU. inauguraron un programa de reconocimiento facial para fomentar el desarrollo en el mercado comercial. El proyecto creó una base de datos de 2413 imágenes faciales fijas que representan a 856 personas.

Este conjunto de muestras representativas desencadena posibles sesgos algorítmicos. Por ejemplo, cuando Google lanzó el reconocimiento facial en su aplicación de fotos, clasificó erróneamente a una pareja negra en el álbum de fotos de una persona blanca como "gorilas".

En 2019, el Instituto Nacional de Estándares y Tecnología estudió varios algoritmos de reconocimiento facial y descubrió que eran de 10 a 100 veces menos precisos para identificar una cara negra que una blanca. Si bien la tecnología puede haber evolucionado en los últimos años, claramente no es infalible.

Beneficios y riesgos

Los defensores señalan que la tecnología tiene aplicaciones beneficiosas. Por ejemplo, los médicos han utilizado la tecnología para diagnosticar ciertas enfermedades detectables a través de expresiones faciales.

El Departamento de Seguridad Nacional implementa la tecnología en los aeropuertos para hacer cumplir la [Lista de prohibición de vuelos](https://www.gao.gov/products/gao-22-106154#:~:text=As%20of%20July%202022% 2C%20CBP%20ha%20desplegado%20FRT%20en%2032,aeropuertos%20para%20llegando%20viajeros%20internacionales). Los fabricantes de teléfonos móviles utilizan la tecnología para el acceso biométrico a los dispositivos de teléfonos inteligentes. Un profesor ha utilizado el reconocimiento facial para detectar el aburrimiento entre sus alumnos.

Aunque se implementa ampliamente en una variedad de disciplinas e industrias, la tecnología de reconocimiento facial sigue sin estar regulada en gran medida. Como resultado, estos sistemas tienen el potencial de afectar el derecho constitucional a la privacidad, vigilando los movimientos de las personas sin su conocimiento o consentimiento.

Estos sistemas también se han implementado con fines nefastos, como el acoso en línea y el acoso cibernético. Los piratas informáticos han manipulado el reconocimiento facial para cometer fraude y robo de identidad. Las fuerzas del orden han utilizado estos sistemas para atacar a los manifestantes, lo que representa una amenaza para el derecho constitucional a la reunión pacífica.

Aumento del uso del sector privado

A raíz del asesinato de George Floyd en 2020, varios estados y municipios prohibieron o suspendieron el uso de sistemas de reconocimiento facial.

Un puñado de grandes empresas de tecnología también anunció [prohibiciones de ventas] temporales (https://news.bloomberglaw.com/tech-and-telecom-law/major-tech-firms-come-out-against-police-use-of -ai-algorithms) a los departamentos de policía: IBM Corp., Amazon.com Inc. y Microsoft Corp. Además, Clearview AI anunció que no ofrecería la tecnología a ciertos países que abusan de su uso.

Si bien el uso de las fuerzas del orden se ha reducido debido a estas acciones, la tecnología de reconocimiento facial se ha disparado en el sector privado.

Los líderes en el campo como NEC Corp. y Clearview AI han implementado sus sistemas en todo el mundo para varios grupos, incluidas agencias de control de inmigración, bancos, lugares de entretenimiento y conferencias y estadios.

El aumento del uso de empresas privadas no reguladas destaca la urgencia de la acción legislativa federal y estatal. Sin barandillas legales, el uso benigno potencial puede verse superado por aplicaciones más ominosas que inciden en los derechos de privacidad y conducen a la discriminación.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd