Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 1411

Incidentes Asociados

Incidente 1083 Reportes
Skating Rink’s Facial Recognition Cameras Misidentified Black Teenager as Banned Troublemaker

Loading...
Adolescente rechazada de la pista de patinaje después de que AI la identifica erróneamente como alborotadora prohibida
theregister.com · 2021

A una adolescente negra en los EE. UU. se le prohibió ingresar a una pista de patinaje después de que un sistema de reconocimiento facial la identificara erróneamente como una persona a la que previamente se le había prohibido iniciar una pelea allí.

Lamya Robinson, de 14 años, había sido llevada por sus padres al Riverside Arena, un espacio cubierto para patinar sobre ruedas en Livonia, Michigan, el fin de semana para pasar tiempo con sus amigos. Las cámaras de reconocimiento facial instaladas dentro de las instalaciones compararon su rostro con una foto de otra persona aparentemente bloqueada después de una escaramuza con otros patinadores.

Por lo tanto, el personal le dijo a Robinson que abandonara las instalaciones. Dijo que la persona en la imagen no podía ser ella porque nunca antes había estado en la pista de patinaje. Sus padres, Juliea y Derrick, ahora están considerando si vale la pena demandar a Riverside Arena o no.

“Para mí, es básicamente un perfil racial”, dijo la madre de Lamya a Fox 2 Detroit. “Estás diciendo que todas las jóvenes negras, morenas y con anteojos se ajustan al perfil y eso no está bien”.

Uno de los gerentes de la arena luego llamó a la madre de Lamya para hablar sobre el tema. Y en un comunicado, el negocio dijo: “El software tenía a su hija en una coincidencia del 97 por ciento. Esto es lo que vimos... si hubo un error, nos disculpamos por eso".

Muchos errores por encontrar

La tecnología de reconocimiento facial es controvertida. Los expertos en la comunidad de investigación de IA, los abogados e incluso las fuerzas del orden han pedido al Congreso que establezca una moratoria sobre el uso del software en el mundo real. Varios proyectos han demostrado que los algoritmos involucrados generalmente tienen dificultades para identificar con precisión a mujeres y personas de color, como Lamya.

El comité judicial de la Cámara celebró una audiencia sobre los efectos del reconocimiento facial utilizado en la aplicación de la ley esta semana. Robert Williams, un hombre de Detroit, que fue arrestado por error y detenido durante 30 horas, testificó.

“Crecí en Detroit, y sé por esa experiencia que el hecho es que las personas que se parecen a mí han estado durante mucho tiempo más sujetas a vigilancia, vigilancia policial estricta y encarcelamiento masivo que otras poblaciones”, dijo. “Me preocupa que la tecnología de reconocimiento facial, aunque funcione mejor que en mi caso, empeore estos problemas”.

Sin embargo, no existe una regulación a nivel federal de la tecnología en Estados Unidos, y parece poco probable que el Congreso actúe sobre el tema. En cambio, los estados y ciudades individuales tienen sus propias reglas que varían en términos de cómo y dónde se pueden usar o no las cámaras de reconocimiento facial.

En Maine, por ejemplo, los funcionarios estatales no pueden usar la tecnología y no pueden contratar a terceros para que lo hagan. El software no se puede utilizar excepto en casos de delitos graves o para buscar vehículos registrados. En otros lugares, en Portland, Oregón, no se permite el uso de cámaras de reconocimiento facial dentro de lugares públicos o privados, desde tiendas de comestibles hasta estaciones de tren.

Muchos estados, sin embargo, son bastante laxos al respecto. Los bancos en Florida y Carolina del Norte usan sistemas para monitorear a los clientes y, en algunos casos, ahuyentar a las personas sin hogar que merodean afuera.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd