Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

インシデント 896: Alleged Misuse of Facial Recognition Technology by Law Enforcement Reportedly Leading to Wrongful Arrests and Violations of Investigative Standards

概要: Law enforcement agencies across the U.S. have allegedly been misusing AI-powered facial recognition technology, leading to wrongful arrests and significant harm to at least eight individuals. Officers have reportedly been bypassing investigative standards, relying on uncorroborated AI matches to build cases, allegedly resulting in prolonged detentions, reputational damage, and personal trauma.
Editor Notes: Editor Notes: This collective incident ID, based on a Washington Post investigation, tracks alleged misuse of facial recognition technology by law enforcement across the U.S., similar to Incident 815: Police Use of Facial Recognition Software Causes Wrongful Arrests Without Defendant Knowledge. While that incident focuses on allegations of withholding information regarding arrests, this incident focuses on reports of law enforcement allegedly relying primarily on facial recognition technology without sufficient corroborative investigative procedures. Some reported incidents include: (1) December 2020: Facial recognition technology reportedly misidentified Christopher Gatlin in Missouri, resulting in his arrest and over 16 months in jail before charges were dropped in March 2024. (2) 2022: Maryland police allegedly misidentified Alonzo Sawyer for assault using facial recognition; his wife later provided evidence that reportedly cleared his name. (3) 2022: Detroit police arrested Robert Williams based on a reported facial recognition error; the city later settled a lawsuit in 2023 for $300,000 without admitting liability. (4) July 2024: Miami police reportedly relied on facial recognition to identify Jason Vernau for check fraud; he was jailed for three days before charges were dropped. (5) January 13, 2025: The Washington Post published its investigation, detailing at least eight wrongful arrests reportedly linked to the use of facial recognition technology and alleged failures to corroborate AI-generated matches. See the full report at The Washington Post for more details on specific cases, timelines, and deployers of this technology.

ツール

新しいレポート新しいレポート新しいレスポンス新しいレスポンス発見する発見する履歴を表示履歴を表示

組織

すべての組織を表示
Alleged: Developers of mugshot recognition software , Developers of law enforcement facial recognition software と Clearview AI developed an AI system deployed by Florence Kentucky Police Department , Evansville Indiana Police Department , Detroit Police Department , Coral Springs Florida Police Department , Bradenton Florida Police Department と Austin Police Department, which harmed Wrongfully arrested individuals , Vulnerable communities , Robert Williams , Quran Reid , Porcha Woodruff , People of color , Nijeer Parks , Jason Vernau , Christopher Gatlin , Black people と Alonzo Sawyer.
関与が疑われるAIシステム: Clearview AI , Statewide facial recognition systems , St. Louis mugshot recognition technology , Michigan state facial recognition system と Florida state facial recognition system

インシデントのステータス

インシデントID
896
レポート数
1
インシデント発生日
2025-01-13
エディタ
Daniel Atherton

インシデントレポート

レポートタイムライン

+1
AIによる逮捕:警察は顔認識の一致後も基準を無視
AIによる逮捕:警察は顔認識の一致後も基準を無視

AIによる逮捕:警察は顔認識の一致後も基準を無視

washingtonpost.com

AIによる逮捕:警察は顔認識の一致後も基準を無視
washingtonpost.com · 2025
自動翻訳済み

*ワシントンポスト紙の報道全文には、捜査員らが採用した手法の説明も含め、追加情報が記載されている。 * ミズーリ州ペイジデール — セントルイス郊外の人気の無い駅のプラットホームで2人の男が警備員を容赦なく暴行した後、郡交通警察の刑事マシュー・シュートは犯人特定に苦慮した。シュートは粗い監視ビデオを研究し、ホームレスシェルターを訪ね歩き、暴行の被害者に何度も電話をかけた。被害者は暴行による脳損傷のためほとんど何も覚えていないと述べた。数ヵ月後、捜査員らはもう一つの方法を試した…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Detroit Police Wrongfully Arrested Black Man Due To Faulty FRT

Wrongfully Accused by an Algorithm

Jan 2020 · 11 レポート
Uber AV Killed Pedestrian in Arizona

Tempe police release report, audio, photo

Mar 2018 · 25 レポート
Unreliable ShotSpotter Audio Previously Used to Convict Chicago Man in Murder Case

Lawsuit: Chicago Police Misused Gunshot Detection Technology in Murder Case

May 2020 · 9 レポート
前のインシデント次のインシデント

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Detroit Police Wrongfully Arrested Black Man Due To Faulty FRT

Wrongfully Accused by an Algorithm

Jan 2020 · 11 レポート
Uber AV Killed Pedestrian in Arizona

Tempe police release report, audio, photo

Mar 2018 · 25 レポート
Unreliable ShotSpotter Audio Previously Used to Convict Chicago Man in Murder Case

Lawsuit: Chicago Police Misused Gunshot Detection Technology in Murder Case

May 2020 · 9 レポート

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 1420c8e