Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Traducido por IA

Incidente 896: Presunto uso indebido de tecnología de reconocimiento facial por parte de las fuerzas del orden que, según se informa, ha dado lugar a detenciones injustificadas y violaciones de las normas de investigación.

Traducido por IA
Descripción:
Traducido por IA
Las fuerzas del orden de todo Estados Unidos han estado haciendo un uso indebido de la tecnología de reconocimiento facial basada en IA, lo que ha provocado arrestos injustificados y daños significativos a al menos ocho personas. Según informes, los agentes han estado eludiendo los estándares de investigación, basándose en coincidencias de IA sin corroborar para construir casos, lo que supuestamente ha resultado en detenciones prolongadas, daños a la reputación y traumas personales.
Editor Notes: Editor Notes: This collective incident ID, based on a Washington Post investigation, tracks alleged misuse of facial recognition technology by law enforcement across the U.S., similar to Incident 815: Police Use of Facial Recognition Software Causes Wrongful Arrests Without Defendant Knowledge. While that incident focuses on allegations of withholding information regarding arrests, this incident focuses on reports of law enforcement allegedly relying primarily on facial recognition technology without sufficient corroborative investigative procedures. Some reported incidents include: (1) December 2020: Facial recognition technology reportedly misidentified Christopher Gatlin in Missouri, resulting in his arrest and over 16 months in jail before charges were dropped in March 2024. (2) 2022: Maryland police allegedly misidentified Alonzo Sawyer for assault using facial recognition; his wife later provided evidence that reportedly cleared his name. (3) 2022: Detroit police arrested Robert Williams based on a reported facial recognition error; the city later settled a lawsuit in 2023 for $300,000 without admitting liability. (4) July 2024: Miami police reportedly relied on facial recognition to identify Jason Vernau for check fraud; he was jailed for three days before charges were dropped. (5) January 13, 2025: The Washington Post published its investigation, detailing at least eight wrongful arrests reportedly linked to the use of facial recognition technology and alleged failures to corroborate AI-generated matches. See the full report at The Washington Post for more details on specific cases, timelines, and deployers of this technology.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial
El Monitor de Incidentes y Riesgos de IA de la OCDE (AIM) recopila y clasifica automáticamente incidentes y riesgos relacionados con la IA en tiempo real a partir de fuentes de noticias reputadas en todo el mundo.
 

Entidades

Ver todas las entidades
Alleged: Developers of mugshot recognition software , Developers of law enforcement facial recognition software y Clearview AI developed an AI system deployed by Florence Kentucky Police Department , Evansville Indiana Police Department , Detroit Police Department , Coral Springs Florida Police Department , Bradenton Florida Police Department y Austin Police Department, which harmed Wrongfully arrested individuals , Vulnerable communities , Robert Williams , Quran Reid , Porcha Woodruff , People of color , Nijeer Parks , Jason Vernau , Christopher Gatlin , Black people y Alonzo Sawyer.
Sistemas de IA presuntamente implicados: Clearview AI , Statewide facial recognition systems , St. Louis mugshot recognition technology , Michigan state facial recognition system y Florida state facial recognition system

Estadísticas de incidentes

ID
896
Cantidad de informes
1
Fecha del Incidente
2025-01-13
Editores
Daniel Atherton

Informes del Incidente

Cronología de Informes

+1
Detenidos por IA: la policía ignora los estándares después de las coincidencias de reconocimiento facial
Detenidos por IA: la policía ignora los estándares después de las coincidencias de reconocimiento facial

Detenidos por IA: la policía ignora los estándares después de las coincidencias de reconocimiento facial

washingtonpost.com

Detenidos por IA: la policía ignora los estándares después de las coincidencias de reconocimiento facial
washingtonpost.com · 2025
Traducido por IA

*Vea el informe completo del Washington Post para obtener información adicional, incluida una explicación de la metodología que emplearon. * PAGEDALE, Missouri — Después de que dos hombres atacaron brutalmente a un guardia de seguridad en u…

Variantes

Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Detroit Police Wrongfully Arrested Black Man Due To Faulty FRT

Detroit Police Wrongfully Arrested Black Man Due To Faulty FRT

Jan 2020 · 11 informes
Uber AV Killed Pedestrian in Arizona

Uber AV Killed Pedestrian in Arizona

Mar 2018 · 25 informes
Unreliable ShotSpotter Audio Previously Used to Convict Chicago Man in Murder Case

Unreliable ShotSpotter Audio Previously Used to Convict Chicago Man in Murder Case

May 2020 · 9 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Detroit Police Wrongfully Arrested Black Man Due To Faulty FRT

Detroit Police Wrongfully Arrested Black Man Due To Faulty FRT

Jan 2020 · 11 informes
Uber AV Killed Pedestrian in Arizona

Uber AV Killed Pedestrian in Arizona

Mar 2018 · 25 informes
Unreliable ShotSpotter Audio Previously Used to Convict Chicago Man in Murder Case

Unreliable ShotSpotter Audio Previously Used to Convict Chicago Man in Murder Case

May 2020 · 9 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 69ff178