Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2911

Incidents associés

Incident 5181 Rapport
New York Detective Misused Woody Harrelson's Face to Perform Face Recognition Search

Loading...
Garbage In, Garbage Out : Reconnaissance faciale sur les données erronées
flawedfacedata.com · 2019

Introduction ------------ Le 28 avril 2017, un suspect a été filmé en train de voler de la bière dans un CVS à New York. La caméra de surveillance du magasin qui a enregistré l'incident a capturé le visage du suspect, mais il était partiellement obscurci et très pixélisé. Lorsque les détectives enquêteurs ont soumis la photo au système de reconnaissance faciale du département de police de New York (NYPD), il n'a renvoyé aucune correspondance utile. Plutôt que de conclure que le suspect ne pouvait pas être identifié à l'aide de la reconnaissance faciale, les détectives ont fait preuve de créativité. Un détective de la section d'identification faciale (FIS), responsable des recherches de reconnaissance faciale pour le NYPD, a noté que le suspect ressemblait à l'acteur Woody Harrelson, connu pour ses performances dans Cheers, Natural Born Killers, True Detective et d'autres émissions de télévision. et films. Une recherche d'images Google pour l'acteur a renvoyé de manière prévisible des images de haute qualité, que les détectives ont ensuite soumises à l'algorithme de reconnaissance faciale à la place de la photo du suspect. Dans la liste des candidats possibles qui en a résulté, les détectives ont identifié quelqu'un qu'ils croyaient correspondre, non pas à Harrelson, mais au suspect dont la photo n'avait produit aucun résultat possible. Ce «match» de célébrité a été renvoyé aux enquêteurs, et quelqu'un qui n'était pas Woody Harrelson a finalement été arrêté pour petit larcin. Il n'y a pas de règles en ce qui concerne les images que la police peut soumettre aux algorithmes de reconnaissance faciale pour générer des pistes d'enquête. Par conséquent, les agences à travers le pays peuvent – et le font – soumettre toutes sortes de «photos de sondage», des photos d'inconnus soumises pour recherche dans une base de données de la police ou des permis de conduire. Ces images peuvent être des photos de caméras de surveillance de mauvaise qualité, des photos de médias sociaux avec des filtres et des images d'albums photos numérisées. Les dossiers des services de police montrent qu'ils peuvent également inclure des traits du visage générés par ordinateur, ou des croquis composites ou d'artistes. Ou la photo de la sonde peut être le sosie célèbre d'un suspect. Woody Harrelson n'est pas la seule célébrité à représenter un suspect recherché par le NYPD. Le FIS a également utilisé une photo d'un joueur des New York Knicks pour rechercher dans sa base de données de reconnaissance faciale un homme recherché pour agression à Brooklyn. Les enjeux sont trop importants dans les enquêtes criminelles pour s'appuyer sur des données non fiables ou erronées. C'est une chose pour une entreprise de créer un système de reconnaissance faciale conçu pour aider les individus à trouver leur sosie de célébrité ou leur sosie de peinture à des fins de divertissement. C'en est une autre d'utiliser ces techniques pour identifier des suspects criminels, qui peuvent être privés de liberté et finalement poursuivis en fonction du match. Malheureusement, le recours des services de police à des photos de sonde douteuses semble trop courant. Garbage In, Garbage Out ----------------------- > "Priez, M. Babbage, si vous mettez dans la machine de mauvais chiffres, les bonnes réponses viendront-elles dehors?" > > —Charles Babbage "Garbage in, garbage out" est une expression utilisée pour exprimer l'idée que l'entrée de données de mauvaise qualité ou absurdes dans un système produira des résultats de mauvaise qualité ou absurdes. Peu importe la puissance ou l'intelligence d'un système, il ne peut fonctionner que sur les informations qui lui sont fournies - si des données manquent, le système ne peut pas fonctionner dessus. Toute tentative de reconstruction ou d'approximation des données manquantes sera nécessairement une « conjecture » quant aux informations contenues dans ces données. Pire encore, si les données sont erronées, comme une photo de quelqu'un d'autre que le suspect, le système n'a aucun moyen de les corriger. Il n'a littéralement aucune information sur le suspect et ne peut pas l'inventer. Les photos pixélisées, déformées ou de visages partiels fournissent moins de données à analyser par un système de reconnaissance faciale que les photos de haute qualité de type passeport, ce qui augmente la marge d'erreur. La technologie de reconnaissance faciale s'est considérablement améliorée au cours des deux dernières années seulement, permettant des recherches rapides dans des bases de données plus importantes et des appariements plus fiables dans les environnements de test. Mais peu importe la qualité de la machine si elle reçoit toujours les mauvais chiffres, les mauvaises réponses sont toujours susceptibles de sortir. 1. Esquisses composites comme images sondes ------------------------------------------- > "L'art composite est un mariage de deux disciplines improbables : le travail d'enquête policière et l'art… Il est essentiel de réaliser qu'un croquis composite est un dessin de la perception qu'a une victime ou un témoin d'un agresseur au moment où il a été observé. portrait exact du suspect. Gardez toujours à l'esprit les deux mots 'ressemblance' et 'ressemblance'. C'est le meilleur qu'un croquis composite puisse atteindre." > > —The Police Composite Sketch Début 2018, Google a lancé "Art Selfie" — une application conçue pour associer la photo d'un utilisateur à un sosie de peinture célèbre à l'aide de la reconnaissance faciale. Le résultat est un appariement de photos souvent humoristique et une occasion d'en apprendre davantage sur l'art. Moins amusant est le fait que certains services de police font la même chose lorsqu'ils recherchent des suspects criminels, juste à l'envers - en soumettant des œuvres d'art pour tenter d'identifier de vraies personnes. Au moins une demi-douzaine de services de police à travers le pays autorisent, voire encouragent, l'utilisation de recherches par reconnaissance faciale sur des croquis médico-légaux. Au moins une demi-douzaine de services de police à travers le pays autorisent, voire encouragent, l'utilisation de recherches par reconnaissance faciale sur des croquis médico-légaux - des visages composites dessinés à la main ou générés par ordinateur basés sur les descriptions qu'un témoin a fournies. Dans une brochure informant ses agents de l'acquisition de la reconnaissance faciale, le bureau du shérif du comté de Maricopa, en Arizona, déclare : " L'image peut provenir de diverses sources, y compris des rendus d'artistes de la police", et que la technologie "peut être utilisé efficacement dans les identifications de suspects à l'aide de photographies, de photos et de vidéos de surveillance, de croquis de suspects et même de bustes médico-légaux. Une présentation sur le système de reconnaissance faciale exploité par le département du shérif du comté de Washington dans l'Oregon comprend un "exemple du monde réel" de la technologie utilisée pour identifier le dessin d'un visage par un artiste. Une évaluation de l'impact sur la vie privée de la reconnaissance faciale qu'un groupe de travail de 15 agences étatiques et fédérales a rédigée en 2011 stipule qu'il devrait être permis d'utiliser la reconnaissance faciale pour "... identifier les suspects sur la base de croquis d'artistes". Des informations sur le département de la sécurité publique et des services correctionnels du Maryland, le système d'information régional de Virginie du Nord et le bureau du shérif du comté de Pinellas en Floride suggèrent que des croquis pourraient également être soumis aux systèmes de reconnaissance faciale de ces agences. Cette pratique est approuvée par certaines des entreprises fournissant ces systèmes de reconnaissance faciale aux services de police. L'exemple du comté de Washington dans la figure 2 fait partie d'une étude de cas qu'Amazon Web Services a mis en évidence dans une présentation sur les capacités de son logiciel de reconnaissance faciale, Rekognition. Cognitec, l'un des principaux fournisseurs d'algorithmes de reconnaissance faciale aux forces de l'ordre américaines, promeut l'utilisation de son logiciel pour "identifier les individus sur les photos, les images fixes et les croquis de scènes de crime". Vigilant Solutions commercialise des outils spécifiquement pour "créer une image proxy à partir d'un dessinateur ou d'un rendu d'artiste" à soumettre à son système de reconnaissance faciale. UN. Examen scientifique de la reconnaissance faciale d'images composites ------------------------------------------------ ------------- Même les croquis les plus détaillés font des images de sonde de reconnaissance faciale médiocres. Le guide d'utilisation de la reconnaissance faciale du département du shérif du comté de Los Angeles résume bien cela : > "Une photographie prise d'une personne réelle doit être utilisée. Le dessin composite aura un succès marginal car il s'agit d'images rendues et ne détaillent pas avec précision des caractéristiques précises." Les études qui ont analysé les performances des systèmes de reconnaissance faciale sur des croquis composites concluent dans le même sens. Une étude de 2011 de la Michigan State University a noté que "les systèmes de reconnaissance faciale commerciaux ne sont pas conçus pour faire correspondre des croquis médico-légaux avec des photographies de visage". En 2013, des chercheurs étudiant cette question ont exécuté des croquis sur une base de données de reconnaissance faciale à l'aide d'un algorithme disponible dans le commerce de Cognitec, l'une des sociétés qui en fait la publicité comme une caractéristique de son système. L'algorithme a été programmé pour renvoyer une liste de 200 correspondances possibles en recherchant une base de données de 10 000 images. Pour les croquis, il a récupéré la correspondance correcte entre 4,1 et 6,7 % du temps. En d'autres termes, dans seulement 1 recherche sur 20 environ, la correspondance correcte apparaîtrait dans les 200 meilleures correspondances possibles produites par l'algorithme. En 2014, le National Institute of Standards and Technology (NIST) a trouvé des résultats tout aussi médiocres, concluant que "les recherches [s]ketch échouent pour la plupart". Le NYPD a conclu séparément la même chose à partir de sa propre expérience. Selon le détective du NYPD, Tom Markiewicz, le FIS a essayé d'exécuter la reconnaissance faciale sur des croquis dans le passé et a constaté que "les croquis ne fonctionnent pas". Le bureau du shérif du comté de Pinellas a fait de même, concluant que la pratique « n'est pas certaine de donner de bons résultats avec le [système] actuel » - mais elle permet néanmoins la pratique. B. Esquisses médico-légales et identification erronée ------------------------------------------------ Le plus probable Le résultat de l'utilisation d'un croquis médico-légal comme photo de sonde est que le système ne parvient pas à trouver une correspondance, même lorsque le suspect se trouve dans la base de données de photos disponible pour les forces de l'ordre. Avec ce résultat, le système ne produit aucune piste utile et les enquêteurs doivent retourner à la planche à dessin. Mais cette pratique introduit également la possibilité d'une identification erronée. Le processus de génération d'un croquis médico-légal est intrinsèquement subjectif. Les croquis reposent généralement sur : 1. La mémoire d'un témoin oculaire de ce à quoi ressemblait le sujet ; 2. La capacité du témoin oculaire à communiquer le souvenir du sujet à un dessinateur ; 3. La capacité de l'artiste à traduire cette description en un dessin précis du visage du sujet, quelqu'un que l'artiste n'a jamais vu en personne. Chacune de ces étapes introduit des éléments d'interprétation subjective et une marge d'erreur. Par exemple, un témoin oculaire peut ne pas se souvenir de la forme de la mâchoire du sujet, mais le croquis résultant en inclura nécessairement une. Ou le témoin peut se souvenir que le suspect avait des "yeux d'insectes", quelque chose que l'artiste aurait besoin d'interpréter au sens figuré plutôt que littéralement. Par conséquent, l'esquisse résultante peut en fait ressembler davantage à quelqu'un dans la base de données de reconnaissance faciale autre que le sujet recherché, comme illustré à la figure 3. Dans ce scénario, l'examen humain des correspondances de reconnaissance faciale ne pourra pas supprimer le risque d'erreur. Lors de l'examen des résultats de la reconnaissance faciale pour une éventuelle correspondance, l'analyste n'aura que le croquis auquel se référer. L'analyste n'aura aucune base pour évaluer si l'image représente fidèlement le sujet recherché. Cela aggrave le risque que la recherche par reconnaissance faciale conduise à une enquête, voire à une arrestation, de la mauvaise personne. 2. Un Art ou une Science ? Caractéristiques faciales générées par ordinateur --------------------------------------------- ------------- Un livre blanc intitulé « Reconnaissance faciale : art ou science ? publié par la société Vigilant Solutions postule que les systèmes de reconnaissance faciale - même sans tenir compte des croquis composites - sont "la science de l'art et une partie de l'art". L'aspect "art" est le processus de modification des images de mauvaise qualité avant de les soumettre à un algorithme de reconnaissance pour augmenter la probabilité que le système renvoie des correspondances possibles. L'édition de photos avant de les soumettre à la recherche est une pratique courante, comme le suggèrent les réponses aux demandes d'enregistrements et un examen des progiciels proposés par les sociétés de reconnaissance faciale. Ces documents illustrent également que les modifications vont souvent bien au-delà des ajustements d'éclairage mineurs et de la correction des couleurs, et reviennent souvent à fabriquer des points d'identité complètement nouveaux qui ne sont pas présents sur la photo d'origine. Une technique utilisée par le NYPD consiste à remplacer les traits ou les expressions faciales d'une photo de sonde par des traits qui ressemblent davantage à ceux des mugshots, collectés à partir de photos d'autres personnes. Les présentations et les entretiens sur le SIF comprennent les exemples suivants : * « Suppression de l'expression faciale » - comme le remplacement d'une bouche ouverte par une bouche fermée. Dans un exemple fourni dans une présentation du NYPD, les détectives ont effectué "... une recherche Google pour Black Male Model" dont les lèvres ont ensuite été collées dans l'image de la sonde au-dessus de la bouche du suspect. * "Insertion d'yeux" - la pratique consistant à "remplacer graphiquement les yeux fermés par un ensemble d'yeux ouverts dans une image de sonde", générée à partir d'une recherche Google pour une paire d'yeux ouverts. * Effet miroir sur un visage partiel : copie et mise en miroir d'un visage partiel sur l'axe Y pour approximer les fonctionnalités manquantes, ce qui peut inclure l'ajout de "[e]xtra pixels… pour créer l'apparence naturelle d'un seul visage". * "Création d'une sonde virtuelle" - combinant deux photographies de visage de personnes différentes que les détectives pensent similaires pour générer une seule image à rechercher, pour localiser une correspondance avec l'une des personnes de la photographie combinée. * Utilisation de "l'effet de flou" sur une image surexposée ou de mauvaise qualité - en ajoutant des pixels à une photo qui, autrement, n'a pas assez de détails "pour rendre une sonde qui [a] un nez, une bouche et un front similaires à ceux du suspect sur la photo. " * Utiliser le "Clone Stamp Tool" pour "créer une joue gauche et toute la zone du menton" d'un suspect dont le visage était obscurci dans l'image d'origine. Une autre technique employée par le NYPD et d'autres agences consiste à utiliser un logiciel de modélisation 3D pour compléter visages et pour "normaliser" ou faire pivoter les visages qui sont détournés de la caméra. Après avoir généré un modèle 3D, le logiciel remplira les données faciales manquantes avec une approximation de ce à quoi il devrait ressembler, en fonction de la partie visible de ce que le le visage du sujet ressemble ainsi que les mensurations d'un visage "moyen". Selon le NYPD, le logiciel crée "une apparence virtuelle du suspect regardant droit devant, reproduisant une pose d'un mugshot standard". Ces techniques équivalent à la fabrication de points d'identité faciale : au mieux une tentative de créer des informations qui n'existent pas en premier lieu et au pire l'introduction de preuves qui correspondent à quelqu'un d'autre que la personne recherchée. Lors d'une recherche de reconnaissance faciale sur une photo modifiée, l'algorithme ne fait pas la distinction entre les parties du visage qui figuraient dans la preuve originale - la photo de la sonde - et les parties qui ont été générées par ordinateur ou ajoutées par un détective, souvent à partir de photos de différentes personnes sans lien avec le crime. Cela signifie que la photo originale pourrait représenter 60% du visage d'un suspect, et pourtant l'algorithme pourrait renvoyer une correspondance possible avec un indice de confiance de 95%, suggérant une forte probabilité de correspondance avec le détective effectuant la recherche. S'il était découvert qu'un expert médico-légal en matière d'empreintes digitales remplaçait graphiquement les parties manquantes ou floues d'une empreinte latente par des lignes générées par ordinateur ou dessinées manuellement, ou reflétait une empreinte partielle pour compléter le doigt, ce serait un scandale. La révélation pourrait entraîner l'examen de milliers de cas, voire l'annulation de condamnations. 3. Résultats en tant que "Pistes d'investigation uniquement…" ----------------------------------------------- La plupart des agences ne considèrent pas encore la reconnaissance faciale comme une identification positive. De nombreux organismes chargés de l'application de la loi, y compris le NYPD, déclarent que les résultats d'une recherche par reconnaissance faciale ne sont que des correspondances possibles et ne doivent pas être utilisés comme identification positive. En théorie, c'est un contrôle précieux contre d'éventuelles erreurs d'identification, y compris celles introduites dans le système en saisissant des comparaisons de célébrités, des croquis composites ou d'autres photographies modifiées par ordinateur qui ne représentent pas avec précision la personne recherchée. Cependant, dans la plupart des juridictions, les agents ne semblent pas recevoir des indications claires sur les preuves supplémentaires nécessaires pour corroborer une éventuelle correspondance de reconnaissance faciale. Le guide du NYPD stipule : "Des étapes d'enquête supplémentaires doivent être effectuées afin d'établir la cause probable de l'arrestation du sujet [sic]" de la recherche par reconnaissance faciale . Mais quelles étapes supplémentaires sont nécessaires ou combien, et dans quelle mesure elles doivent être indépendantes du processus de reconnaissance faciale, restent indéfinis. En l'absence de ces conseils, la réalité est que les suspects sont appréhendés presque entièrement sur la base de «correspondances possibles» de reconnaissance faciale. Par exemple : * Dans un cas récent, des agents du NYPD ont appréhendé un suspect et l'ont placé dans une file d'attente uniquement sur la base d'un résultat de recherche par reconnaissance faciale. L'arrestation finale a été effectuée sur la base de l'identification du témoin qui en a résulté, mais le suspect n'était dans la file d'attente qu'en raison du processus de reconnaissance faciale. * Des agents du NYPD ont procédé à une arrestation après avoir envoyé à un témoin une photo de « correspondance possible » par reconnaissance faciale avec un texte d'accompagnement : « Est-ce le gars… ? » La réponse affirmative du témoin à la visualisation de la photo unique et du texte qui l'accompagne, sans qu'aucune programmation en direct ou tableau de photos n'ait jamais été effectué, était la seule confirmation de la correspondance possible avant que les agents ne procèdent à une arrestation. * Les shérifs de Jacksonville, en Floride, qui participaient à une vente de drogue sous couverture, ont arrêté un suspect sur la base d'une recherche par reconnaissance faciale. La seule corroboration a été l'examen de la photographie par les agents, présentée comme la correspondance "la plus probable" possible du système de reconnaissance faciale. * Un officier du département de police du métro à Washington, D.C., a imprimé de la même manière une photo de « correspondance possible » à partir du système de reconnaissance faciale de MPD et a présenté cette photo unique à un témoin pour confirmation. La demande de mandat d'arrêt qui en a résulté pour la personne sur la photo a utilisé la reconnaissance faciale, la confirmation du témoin et une publication sur les réseaux sociaux concernant une date de naissance possible (mois et jour uniquement) comme seules sources de preuve d'identification. Il existe probablement de nombreux autres exemples que nous ne connaissons pas. Ceux-ci représentent une fraction des cas qui ont utilisé la reconnaissance faciale pour aider à faire une identification. Le NYPD a procédé à 2 878 arrestations à la suite de recherches par reconnaissance faciale au cours des 5,5 premières années d'utilisation de la technologie. Les forces de l'ordre de Floride, y compris le bureau du shérif de Jacksonville, effectuent en moyenne 8 000 recherches par mois sur le système de reconnaissance faciale du bureau du shérif du comté de Pinellas, qui fonctionne depuis 2001. De nombreux autres organismes ne suivent pas de près le nombre de fois où leurs agents effectuer des recherches de reconnaissance faciale et si ces recherches aboutissent à une arrestation. Un autre contrôle précieux contre les erreurs d'identification - et les pistes d'enquête peu fiables - serait de permettre aux accusés d'accéder aux entrées et aux sorties d'une recherche par reconnaissance faciale qui a abouti à leur arrestation. Mais cela ne se produit pas. Même si les procureurs sont tenus, en vertu de la loi fédérale, de divulguer toute preuve susceptible d'exonérer l'accusé, les avocats de la défense ne reçoivent généralement pas d'informations sur les « sondes virtuelles », les sosies célèbres ou vraiment sur le rôle joué par la reconnaissance faciale dans l'identification de leur client. Il s'agit d'un échec du système de justice pénale à protéger les procédures régulières des accusés. Il se peut que bon nombre des personnes arrêtées sur la base de fouilles douteuses par reconnaissance faciale aient en fait commis le crime dont elles étaient accusées. Mais la possibilité qu'ils ne l'aient pas fait - que le système de reconnaissance faciale ait identifié la mauvaise personne - est très importante en l'absence d'enquête policière supplémentaire et indépendante et d'un accès suffisant aux preuves par la défense. C'est risqué, et les conséquences seront supportées par des personnes faisant l'objet d'une enquête, arrêtées et inculpées pour des crimes qu'elles n'ont pas commis. 4. Conclusion et recommandations ---------------------------------- Il n'y a pas de moyen facile de découvrir à quel point une tendance cela représente - et combien d'arrestations ont été effectuées en grande partie sur la base de sosies de célébrités, de croquis d'artistes ou de visages graphiquement modifiés soumis à des systèmes de reconnaissance faciale. Mais nous pouvons anticiper que le problème va devenir beaucoup plus important. Partout au pays, les services de police comptent de plus en plus sur les systèmes de reconnaissance faciale pour faciliter leurs enquêtes. En outre, un responsable du Federal Bureau of Investigation (FBI), qui gère son propre système de reconnaissance faciale, a indiqué que l'agence prévoyait de supprimer complètement la limitation de "piste d'enquête uniquement". Lors d'une conférence en 2018, le chef de la section des services biométriques du FBI, Bill McKinsey, a déclaré à propos du FBI : "Nous sommes assez convaincus que nous aurons une reconnaissance faciale à identification positive dans deux à trois ans". objectif, le FBI a supposé que les résultats des systèmes de reconnaissance faciale deviendront plus précis à mesure que les algorithmes s'amélioreront. Mais ces améliorations n'auront pas beaucoup d'importance s'il n'y a pas de normes régissant ce que les services de police peuvent alimenter ces systèmes. règles, nous pensons qu'un moratoire sur l'utilisation de la reconnaissance faciale par les forces de l'ordre locales, étatiques et fédérales est approprié et nécessaire. Les enjeux sont trop importants dans les enquêtes criminelles pour s'appuyer sur des informations peu fiables ou erronées. Les organismes d'application de la loi qui persistent à utiliser la reconnaissance faciale dans leurs enquêtes devrait au minimum prendre des mesures pour réduire le risque d'erreur d'identification et d'erreur sur la base de preuves non fiables.Ces étapes comprennent : * Cesser d'utiliser des images de sonde sosie de célébrités.La reconnaissance faciale est généralement considérée comme une biométrie, bien qu'imparfait. La police ne peut pas substituer les données biométriques d'une personne à celles d'une autre, quelle que soit la ressemblance passagère qu'elles peuvent avoir. * Arrêtez de soumettre des croquis d'artistes ou composites à des systèmes de reconnaissance faciale qui ne sont pas expressément conçus à cet effet. Il est très peu probable que les croquis aboutissent à une correspondance correcte et comportent un risque réel d'entraîner une erreur d'identification qu'un examen humain des correspondances possibles ne peut pas corriger. * Établissez et respectez des normes minimales de qualité photo, telles que la densité de pixels et le pourcentage du visage qui doit être visible sur la photo d'origine, et interdisez la pratique consistant à coller les traits du visage d'autres personnes dans une sonde. Toute photo ne répondant pas à ces normes minimales doit être jetée et non améliorée par l'ajout de nouveaux points d'identité comme la bouche ou les yeux d'une autre personne. * Si des modifications sont apportées aux images de sonde, documentez soigneusement ces modifications et leurs résultats. Conserver toutes les versions de l'image de la sonde soumises au système de reconnaissance faciale pour production à la défense. * Exigez que tout examen humain ultérieur de la correspondance possible de la reconnaissance faciale soit effectué par rapport à la photo d'origine, et non à une photo qui a subi des améliorations, y compris une correction de couleur et de pose. * Comme c'est la pratique dans certains services de police, exiger une confirmation en double aveugle. Le système de reconnaissance faciale ne devrait produire une piste d'enquête que si deux analystes concluent indépendamment que la même photo est une correspondance possible. * Fournir des conseils concrets aux enquêteurs sur ce qui constitue une corroboration suffisante d'une éventuelle correspondance générée par un système de reconnaissance faciale avant que des mesures d'application de la loi ne soient prises contre un suspect. Cela devrait inclure : des matrices de photos obligatoires ; une interdiction d'informer les témoins que la reconnaissance faciale a été utilisée ; et un lien concret entre le suspect et le crime en plus de l'identification, comme une adresse partagée. * Mettre à la disposition de la défense toute information sur l'utilisation de la reconnaissance faciale, y compris la photo de sonde originale, toutes les modifications apportées à cette photo avant la recherche, la liste des candidats qui en résulte et le rang de l'accusé dans cette liste, et l'examen humain qui corroboré la correspondance possible. * Interdire l'utilisation de la reconnaissance faciale comme identification positive en toutes circonstances. Ces recommandations doivent être considérées comme des exigences minimales et s'ajoutent aux recommandations plus larges formulées par le Center on Privacy & Technology dans son rapport de 2016, [The Perpetual Line-up : Unregulated Police Face Recognition in America](https://www .perpetuallineup.org/). Alors que la technologie derrière ces systèmes de reconnaissance faciale continue de s'améliorer, il est naturel de supposer que les pistes d'enquête deviennent plus précises. Pourtant, sans règles régissant ce qui peut – et ne peut pas – être soumis en tant que photo de sonde, c'est loin d'être une garantie. L'entrée des ordures conduira toujours à la sortie des ordures. 5. Remerciements -------------------- Ce rapport ne serait pas possible sans le plaidoyer inlassable du professeur David Vladeck, de Stephanie Glaberson et de nombreux étudiants avocats de la Georgetown Law Civil Litigation Clinic , qui représente le Center on Privacy & Technology dans notre action en justice contre le service de police de la ville de New York. Ce n'est qu'avec l'aide de la clinique que nous avons pu récupérer des milliers de pages de documents concernant l'utilisation de la technologie de reconnaissance faciale par le NYPD, même si l'agence elle-même s'est efforcée de garder son utilisation de cette technologie cachée à la vue du public. Des conseils critiques et une lecture attentive ont été fournis par notre équipe d'examinateurs externes, qui resteront anonymes, mais qui nous ont apporté leur expertise sur la police de New York, les litiges pénaux et le fonctionnement technique des systèmes de reconnaissance faciale. Ce rapport ne serait pas possible sans toute l'équipe du Centre, qui a aidé de multiples façons : Alvaro Bedoya, Laura Moy, Katie Evans, Harrison Rudolph, Jameson Spivack, Gabrielle Rejouis et Julia Chrusciel. Nous sommes également reconnaissants aux assistants de recherche et boursiers d'été du Centre; notre éditrice, Joy Metcalf ; notre société de conception et de développement Web, Rootid ; et notre conceptrice de couverture, Eve Tyler. Nous reconnaissons également, avec gratitude, le travail de nos amis et alliés d'autres organisations qui s'efforcent également de faire la lumière sur la façon dont la technologie de reconnaissance faciale est utilisée et d'empêcher que de puissants outils de police ne soient utilisés de manière préjudiciable aux individus et aux communautés. En particulier, peut-être que personne n'a fait plus pour aborder et exposer les utilisations nuisibles, secrètes et déloyales de la technologie policière que les avocats de la défense pénale, dont beaucoup continuent de nous fournir des conseils inestimables. Le Center on Privacy & Technology de Georgetown Law est soutenu par la Ford Foundation, les Open Society Foundations, la MacArthur Foundation, Luminate, le Media Democracy Fund et le Georgetown University Law Center.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd