Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Incident 896: Alleged Misuse of Facial Recognition Technology by Law Enforcement Reportedly Leading to Wrongful Arrests and Violations of Investigative Standards

Description: Law enforcement agencies across the U.S. have allegedly been misusing AI-powered facial recognition technology, leading to wrongful arrests and significant harm to at least eight individuals. Officers have reportedly been bypassing investigative standards, relying on uncorroborated AI matches to build cases, allegedly resulting in prolonged detentions, reputational damage, and personal trauma.
Editor Notes: Editor Notes: This collective incident ID, based on a Washington Post investigation, tracks alleged misuse of facial recognition technology by law enforcement across the U.S., similar to Incident 815: Police Use of Facial Recognition Software Causes Wrongful Arrests Without Defendant Knowledge. While that incident focuses on allegations of withholding information regarding arrests, this incident focuses on reports of law enforcement allegedly relying primarily on facial recognition technology without sufficient corroborative investigative procedures. Some reported incidents include: (1) December 2020: Facial recognition technology reportedly misidentified Christopher Gatlin in Missouri, resulting in his arrest and over 16 months in jail before charges were dropped in March 2024. (2) 2022: Maryland police allegedly misidentified Alonzo Sawyer for assault using facial recognition; his wife later provided evidence that reportedly cleared his name. (3) 2022: Detroit police arrested Robert Williams based on a reported facial recognition error; the city later settled a lawsuit in 2023 for $300,000 without admitting liability. (4) July 2024: Miami police reportedly relied on facial recognition to identify Jason Vernau for check fraud; he was jailed for three days before charges were dropped. (5) January 13, 2025: The Washington Post published its investigation, detailing at least eight wrongful arrests reportedly linked to the use of facial recognition technology and alleged failures to corroborate AI-generated matches. See the full report at The Washington Post for more details on specific cases, timelines, and deployers of this technology.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique

Entités

Voir toutes les entités
Alleged: Developers of mugshot recognition software , Developers of law enforcement facial recognition software et Clearview AI developed an AI system deployed by Florence Kentucky Police Department , Evansville Indiana Police Department , Detroit Police Department , Coral Springs Florida Police Department , Bradenton Florida Police Department et Austin Police Department, which harmed Wrongfully arrested individuals , Vulnerable communities , Robert Williams , Quran Reid , Porcha Woodruff , People of color , Nijeer Parks , Jason Vernau , Christopher Gatlin , Black people et Alonzo Sawyer.
Systèmes d'IA présumés impliqués: Clearview AI , Statewide facial recognition systems , St. Louis mugshot recognition technology , Michigan state facial recognition system et Florida state facial recognition system

Statistiques d'incidents

ID
896
Nombre de rapports
1
Date de l'incident
2025-01-13
Editeurs
Daniel Atherton

Rapports d'incidents

Chronologie du rapport

+1
Arrêté par l'IA : la police ignore les normes après des correspondances de reconnaissance faciale
Arrêté par l'IA : la police ignore les normes après des correspondances de reconnaissance faciale

Arrêté par l'IA : la police ignore les normes après des correspondances de reconnaissance faciale

washingtonpost.com

Arrêté par l'IA : la police ignore les normes après des correspondances de reconnaissance faciale
washingtonpost.com · 2025
Traduit par IA

*Voir le rapport complet du Washington Post pour plus d'informations, y compris une explication de la méthodologie employée. * PAGEDALE, Missouri — Après que deux hommes ont brutalement agressé un agent de sécurité sur un quai de gare désol…

Variantes

Une "Variante" est un incident qui partage les mêmes facteurs de causalité, produit des dommages similaires et implique les mêmes systèmes intelligents qu'un incident d'IA connu. Plutôt que d'indexer les variantes comme des incidents entièrement distincts, nous listons les variations d'incidents sous le premier incident similaire soumis à la base de données. Contrairement aux autres types de soumission à la base de données des incidents, les variantes ne sont pas tenues d'avoir des rapports en preuve externes à la base de données des incidents. En savoir plus sur le document de recherche.

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Detroit Police Wrongfully Arrested Black Man Due To Faulty FRT

Wrongfully Accused by an Algorithm

Jan 2020 · 11 rapports
Uber AV Killed Pedestrian in Arizona

Tempe police release report, audio, photo

Mar 2018 · 25 rapports
Unreliable ShotSpotter Audio Previously Used to Convict Chicago Man in Murder Case

Lawsuit: Chicago Police Misused Gunshot Detection Technology in Murder Case

May 2020 · 9 rapports
Incident précédentProchain incident

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Detroit Police Wrongfully Arrested Black Man Due To Faulty FRT

Wrongfully Accused by an Algorithm

Jan 2020 · 11 rapports
Uber AV Killed Pedestrian in Arizona

Tempe police release report, audio, photo

Mar 2018 · 25 rapports
Unreliable ShotSpotter Audio Previously Used to Convict Chicago Man in Murder Case

Lawsuit: Chicago Police Misused Gunshot Detection Technology in Murder Case

May 2020 · 9 rapports

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 1420c8e