Incidents associés

Les algorithmes de la société française Idemia scannent des millions de visages. Le logiciel de reconnaissance faciale de la société sert la police aux États-Unis, en Australie et en France. Le logiciel Idemia vérifie le visage de certains passagers de navires de croisière débarquant aux États-Unis par rapport aux registres des douanes et de la protection des frontières. En 2017, un haut responsable du FBI a déclaré au Congrès qu'un système de reconnaissance faciale qui parcourt 30 millions de photos à l'aide de la technologie Idemia aide à "protéger le peuple américain".
Mais les algorithmes d'Idemia ne voient pas toujours tous les visages de la même manière. Les résultats des tests de juillet de l'Institut national des normes et de la technologie ont indiqué que deux des derniers algorithmes d'Idemia étaient beaucoup plus susceptibles de confondre les visages des femmes noires que ceux des femmes blanches ou des hommes noirs ou blancs.
Le test du NIST a mis au défi des algorithmes pour vérifier que deux photos montraient le même visage, de la même manière qu'un agent frontalier vérifierait les passeports. Dans les paramètres de sensibilité où les algorithmes d'Idemia correspondaient à tort à différents visages de femmes blanches à raison d'un sur 10 000, ils correspondaient à tort à des visages de femmes noires environ une fois sur 1 000, soit 10 fois plus fréquemment. Un taux de fausse correspondance de 1 sur 10 000 est souvent utilisé pour évaluer les systèmes de reconnaissance faciale.
Donnie Scott, qui dirige la division américaine de la sécurité publique chez Idemia, anciennement connue sous le nom de Morpho, affirme que les algorithmes testés par le NIST n'ont pas été commercialisés et que la société vérifie les différences démographiques lors du développement du produit. Il dit que les résultats différents sont probablement dus aux ingénieurs qui ont poussé leur technologie pour obtenir la meilleure précision globale lors des tests étroitement surveillés du NIST. "Il existe des différences physiques entre les personnes et les algorithmes vont s'améliorer sur différentes personnes à des rythmes différents", dit-il.
Les algorithmes de vision par ordinateur n'ont jamais été aussi bons pour distinguer les visages humains. Le NIST a déclaré l'année dernière que les meilleurs algorithmes étaient 25 fois meilleurs pour trouver une personne dans une grande base de données entre 2010 et 2018, et ne manquaient une vraie correspondance que 0,2% du temps. Cela a contribué à une utilisation généralisée dans le gouvernement, le commerce et des gadgets comme l'iPhone.
Mais les tests du NIST et d'autres études ont montré à plusieurs reprises que les algorithmes ont plus de mal à reconnaître les personnes à la peau plus foncée. Le rapport de juillet de l'agence couvrait les tests sur le code de plus de 50 entreprises. De nombreux acteurs les plus performants dans ce rapport montrent des écarts de performance similaires à la différence de 10 fois du taux d'erreur d'Idemia pour les femmes noires et blanches. Le NIST a publié les résultats des tests démographiques des algorithmes de reconnaissance faciale depuis le début de 2017. Il a également constaté de manière constante qu'ils fonctionnent moins bien pour les femmes que pour les hommes, un effet qui serait dû au moins en partie à l'utilisation de maquillage.
"Les hommes blancs … sont le groupe démographique qui donne généralement le FMR le plus bas", ou taux de fausse correspondance, indique le rapport. "Les femmes noires … sont le groupe démographique qui donne généralement le FMR le plus élevé." Le NIST prévoit un rapport détaillé cet automne sur le fonctionnement de la technologie sur différents groupes démographiques.
Les études du NIST sont considérées comme la référence en matière d'évaluation des algorithmes de reconnaissance faciale. Les entreprises qui réussissent utilisent les résultats pour le marketing. Les entreprises chinoises et russes ont eu tendance à dominer les classements en termes de précision globale et à vanter leurs résultats NIST pour gagner des affaires dans leur pays. Idemia a publié un communiqué de presse en mars se vantant d'avoir obtenu de meilleurs résultats que ses concurrents pour les contrats fédéraux américains.
De nombreux algorithmes de reconnaissance faciale sont plus susceptibles de confondre les visages noirs que les visages blancs. Chaque graphique représente un algorithme différent testé par le National Institute of Standards and Technology. Ceux avec une ligne rouge continue en haut correspondent à tort aux visages des femmes noires plus que les autres groupes. NIST
Le Department of Homeland Security a également constaté que la peau plus foncée défie la reconnaissance faciale commerciale. En février, le personnel du DHS a publié les résultats des tests de 11 systèmes commerciaux conçus pour vérifier l'identité d'une personne, comme à un point de contrôle de sécurité dans un aéroport. Les sujets de test ont fait mesurer leur pigment cutané. Les systèmes testés prenaient généralement plus de temps pour traiter les personnes à la peau plus foncée et étaient moins précis pour les identifier, bien que certains fournisseurs aient obtenu de meilleurs résultats que d'autres. Le chien de garde interne de l'agence a déclaré que le DHS devrait rendre compte publiquement des performances de ses systèmes de reconnaissance faciale déployés, comme ceux des essais dans les aéroports, sur différents groupes raciaux et ethniques.
Les rapports du gouvernement font écho à des études critiques de 2018 de chercheurs de l'ACLU et du MIT qui se méfient ouvertement de la technologie. Ils ont signalé que les algorithmes d'Amazon, Microsoft et IBM étaient moins précis sur les peaux plus foncées.