Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

レポート 6742

関連インシデント

インシデント 13052 Report
UK Facial Recognition System Reportedly Exhibits Higher False Positive Rates for Black and Asian Subjects

Loading...
顔認識カメラは「黒人やアジア人を誤って認識する可能性が高い」
telegraph.co.uk · 2025

顔認識技術は、黒人やアジア人を容疑者として誤って分類する傾向が強まっていることが、テストで明らかになった。

内務省は、警察の全国データベースの検索にこの技術が使用される際の仕組みを調査した結果、「検索結果に一部の人口統計学的グループが誤って含まれる可能性が高まっている」と明らかにした。

労働党は現在、ライブ顔認識カメラの全国展開と、犯罪容疑者のパスポートや入国管理記録を含む政府データベースのスキャンへの利用拡大を準備している。

警察大臣のサラ・ジョーンズは、この技術をDNA照合以来最大の進歩と評した。

少数民族における「偽陽性」の可能性については、根強い懸念があった。

しかし、内務省は、国立物理学研究所(NPL)の調査結果が共有されて以来、「統計的に有意な」偏りのない新しいアルゴリズムをテストし、購入したと述べた。

「内在するバイアスについて」

警察の全国データベースに搭載されている遡及型顔認識技術ツールを低設定で検証したアナリストたちは、「白人(0.04%)の誤認識率(FPIR)は、アジア人(4%)や黒人(5.5%)よりも低い」ことを発見した。

さらに、黒人女性の誤認識率が特に高かったことも判明した。「黒人男性のFPIR(0.4%)は、黒人女性(9.9%)よりも低い」と報告書は述べている。

警察と犯罪に関する委員は、NPLの調査結果の公表は「懸念すべき内在するバイアスを浮き彫りにする」ものであり、全国展開の計画には慎重な姿勢が必要だと訴えた。

警察犯罪委員協会は、このバイアスにより「状況によっては、黒人とアジア人を白人よりも誤って照合する可能性が高くなる」と述べた。

さらに、「言葉遣いは専門的だが、細部を見れば、適切な安全対策が講じられないまま、テクノロジーが警察活動に導入されていることは明らかだ」と付け加えた。

当局者は、重大犯罪者の逮捕を支援するためにこの技術が必要だと述べている。警察の訓練、実務慣行、ガイダンスには、警察の全国データベースから返されるすべての一致候補について、訓練を受けたユーザーと捜査官による目視による評価を義務付ける手動の安全対策が盛り込まれていると彼らは述べている。

「既に措置を講じている」

内務省の報道官は、「内務省は報告書の結果を真摯に受け止めており、既に措置を講じている。独立した機関によってテストされ、調達された新しいアルゴリズムは、統計的に有意な偏りがない。来年初めにテストされ、評価を受ける予定だ」と述べた。

「この問題の重要性に鑑み、法医学規制当局と並んで、警察監察官に対し、法執行機関による顔認識技術の活用状況を見直すよう要請した」全国警察長官会議(National Police Chiefs Council)も支持するこれらの緩和策の有効性を評価する予定だ。

ロンドン警視庁の年次報告書によると、310万枚の画像のうち、「一致」した人物が実際には別の人物だったという誤報が10件あった。そのうち8件は黒人または少数民族であり、この技術における人種的偏見の痕跡が残っている可能性が示唆されている。

しかし、この10件のうち4件は、警察官が当該人物に対応する前に画像を破棄した。残りの6件は、警察官が当該人物に近づき、5分未満しか話さなかったものの、それ以上の措置は取られなかった。ロンドン警視庁は、この誤報率はわずか0.0003%、つまり30万分の1であると指摘している。

情報源を読む

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd