Problème 2780

Cinq jours après que la Russie a lancé son invasion à grande échelle de l'Ukraine, il y a un an cette semaine, la société américaine de reconnaissance faciale Clearview AI a offert au gouvernement ukrainien un accès gratuit à sa technologie, suggérant qu'elle pourrait être utilisée pour réunir des familles, identifier des agents russes , et lutter contre la désinformation. Peu de temps après, le gouvernement ukrainien a révélé qu'il utilisait la technologie pour scanner les visages des soldats russes morts afin d'identifier leurs corps et d'informer leurs familles. En décembre 2022, Mykhailo Fedorov, vice-premier ministre ukrainien et ministre de la transformation numérique, était tweeting une photo de lui avec le PDG de Clearview AI, Hoan Ton-That, remerciant l'entreprise pour son soutien.
Rendre compte des morts et informer les familles du sort de leurs proches est un [impératif des droits humains](https://opiniojuris.org/2022/07/04/death-and-dignity-in-ukraines-armed-conflict-an -insight-into-the-protection-of-victims-remains-under-international-law-part-i/) inscrit dans les traités, protocoles et lois internationaux comme les [Conventions de Genève](https://ihl-databases. icrc.org/fr/customary-ihl/v2/rule116) et le Comité international de la Croix-Rouge (CICR) [Principes directeurs pour une gestion digne des morts](https://shop.icrc.org/guiding-principles -pour-une-gestion-digne-des-morts-dans-les-urgences-humanitaires-et-pour-les-prevenir-devenir-disparus-pdf-en.html). Elle est également liée à des obligations beaucoup plus profondes. Prendre soin des morts fait partie des pratiques humaines les plus anciennes, celle qui nous rend humains, au même titre que le langage et la capacité d'autoréflexion. L'historien Thomas Laqueur, dans sa méditation épique, The Work of the Dead, écrit que "comme Depuis que les gens ont discuté de ce sujet, le soin des morts a été considéré comme fondamental - de la religion, de la politique, du clan, de la tribu, de la capacité de faire le deuil, d'une compréhension de la finitude de la vie, de la civilisation elle-même. Mais l'identification des morts à l'aide de la technologie de reconnaissance faciale utilise le poids moral de ce type de soins pour autoriser une technologie qui soulève de graves préoccupations en matière de droits humains.
En Ukraine, la la plus sanglante [guerre](https://www.ohchr.org /fr/news/2023/01/ukraine-civilian-casualty-update-3-january-2023) en Europe depuis la Seconde Guerre mondiale, la reconnaissance faciale peut sembler n'être qu'un outil parmi d'autres apporté à la sombre tâche d'identifier les morts, ainsi que avec numérisation des enregistrements de morgue, [laboratoires mobiles d'ADN](https://www .biometricupdate.com/202207/ukraine-gets-mobile-dna-biometrics-lab-from-france-to-id-war-dead) et [l'exhumation de fosses communes](https://www.Reuters.com/world /l'ukraine-achève-l'exhumation-des-soldats-lyman-mass-grave-2022-10-14/).
Mais est-ce que ça marche ? Ton-That affirme que la technologie de son entreprise "fonctionne efficacement indépendamment des dommages faciaux qui ont pu survenir à une personne décédée." Il existe peu de recherches pour étayer cette affirmation, mais les auteurs de une petite étude a trouvé des résultats "prometteurs » même pour les visages en état de décomposition. Cependant, l'anthropologue médico-légal Luis Fondebrider, ancien chef des services médico-légaux du CICR, qui a travaillé dans des zones de conflit à travers le monde, met en doute ces affirmations. « Cette technologie manque de crédibilité scientifique », dit-il. "Ce n'est absolument pas largement accepté par la communauté médico-légale." (L'identification ADN reste l'étalon-or.) Le domaine de la médecine légale "comprend la technologie et l'importance des nouveaux développements", mais la ruée vers l'utilisation de la reconnaissance faciale est "une combinaison de politique et d'affaires avec très peu de science", selon Fondebrider. "Il n'y a pas de solutions magiques pour l'identification", dit-il.
L'utilisation d'une technologie non éprouvée pour identifier les soldats tombés au combat pourrait conduire à des erreurs et traumatiser les familles. Mais même si l'utilisation médico-légale de la technologie de reconnaissance faciale était étayée par des preuves scientifiques, elle ne devrait pas être utilisée pour nommer les morts. C'est trop dangereux pour les vivants.
Organisations dont Amnesty International, le Electronic Frontier Foundation, le projet de surveillance des technologies de surveillance et le projet de défense des immigrants ont déclaré que la technologie de reconnaissance faciale était une forme de la surveillance de masse qui menace la vie privée, amplifie [la police raciste](https://sitn.hms.harvard. edu/flash/2020/racial-discrimination-in-face-recognition-technology/), menace le [droit de manifester](https://www.theverge.com/2020/8/18/21373316/nypd-facial- recognition-black-lives-matter-activist-derrick-ingram), et peut conduire à arrestation injustifiée . Damini Satija, responsable du Algorithmic Accountability Lab d'Amnesty International et directrice adjointe d'Amnesty Tech, affirme que la technologie de reconnaissance faciale porte atteinte aux droits humains en "reproduisant une discrimination structurelle à grande échelle". et automatiser et enraciner les inégalités sociétales existantes. En Russie, facial [recognition](https://www .biometricupdate.com/202206/russia-uses-its-facial-recognition-system-to-show-reporters-whos-the-boss) [technologie](https://www.article19.org/resources/russia-facial -la reconnaissance-met en danger l'anonymat/) est utilisé pour étouffer la dissidence politique. Il ne respecte pas les normes légales et [les normes éthiques](https://www .perpetuallineup.org/) lorsqu'il est utilisé dans les forces de l'ordre au Royaume-Uni et aux États-Unis, et est [armé](https://www.forbes.com/sites/thomasbrewster/2022/02/09/a-threat-to-black -communities-senators-call-on-immigration-cops-and-fbi-to-quit-using-clearview-facial-recognition/?sh=27714db56d06) [contre](https://www.tandfonline.com/doi/ full/10.1080/23299460.2020.1831365) marginalisé communautés [autour](https://www.codastory.com/authoritarian -tech/india-police-facial-recognition/) le monde.
Clearview AI, qui vend principalement ses marchandises à la police, possède l'une des plus grandes bases de données connues de photos faciales, à 20 milliards d'images, avec des plans pour collecter 100 milliards d'images supplémentaires, soit l'équivalent de 14 photos pour chaque personne sur la planète. La société a promis aux investisseurs que bientôt "presque tout le monde dans le monde sera identifiable". Les régulateurs en L'Italie, l'Australie, le Royaume-Uni et la France ont déclaré la base de données de Clearview illégale et ont ordonné à l'entreprise de supprimer les photos de leurs citoyens. Dans l'UE, Reclaim Your Face, une coalition de plus de 40 organisations de la société civile, a appelé à une interdiction complète de la technologie de reconnaissance faciale.
La chercheuse en éthique de l'IA Stephanie Hare affirme que l'Ukraine "utilise un outil et fait la promotion d'une entreprise et d'un PDG qui se sont non seulement comportés de manière contraire à l'éthique, mais illégalement .” Elle conjecture qu'il s'agit d'un cas où « la fin justifie les moyens », mais demande : « Pourquoi est-il si important que l'Ukraine soit capable d'identifier les soldats russes morts à l'aide de Clearview AI ? En quoi est-ce essentiel pour défendre l'Ukraine ou gagner la guerre ? »
Je pense que la réponse à ces questions se trouve dans une [interview](https://techcrunch.com/2022/03/15/ukraines-mykhailo-fedorov-talks-about-corporate-sanctions-and-running-a- government-during-wartime/?guccounter=1) avec Fedorov au début de la guerre. Un journaliste lui a demandé : « À quel type de cas d'utilisation pensez-vous lorsque vous utilisez Clearview AI ? Fedorov a répondu: "Je commencerais par dire que la plupart de ces cas d'utilisation ne seraient pas publics, pas quelque chose que nous pourrions partager publiquement. Mais quelque chose que je peux juste vous donner un aperçu serait ... essayer pour identifier les forces russes qui ont été tuées ou faites prisonnières en Ukraine."
Cette interview et d'autres comme celle-ci suggèrent que la technologie de Clearview AI est utilisée à de nombreuses fins en Ukraine , mais seule son utilisation potentiellement positive pour identifier les morts fait l'objet de discussions publiques. En d'autres termes, nous avons droit à "un aperçu" qui met en lumière une application humanitaire tandis que des déploiements plus controversés sont cachés. À un moment où Clearview AI fait face à des poursuites judiciaires de la part des régulateurs pour son utilisation dans le maintien de l'ordre, elle a trouvé un moyen de se réinventer en tant que fournisseur de technologie humanitaire, tout en élargissant sa portée des forces de l'ordre à l'armée.
Étant donné que l'UE reconnaît la reconnaissance faciale comme une technologie "à double usage" avec des applications militaires et civiles, son utilisation en temps de guerre à toutes fins, y compris l'identification des morts, doit faire l'objet d'un contrôle et d'une surveillance stricts. Et sur le champ de bataille, la reconnaissance faciale peut être utilisée pour nommer les morts, mais peut également être utilisée pour cibler les vivants, par exemple, lorsqu'elle est intégrée à [drones](https://www.forbes.com/sites/thomasbrewster/2021/ 15/02/drones-with-facial-recognition-are-primed-to-fly-but-the-world-isnt-ready-yet/?sh=1878ccd93d9e) et [mitrailleuses](https://www.youtube .com/watch?v=GFD_Cgr2zho) ou utilisées pour développer des armes mortelles autonomes. Des drones entièrement autonomes sont déjà déployés en Ukraine et un [fabricant russe](https://theconversation.com/war- in-ukraine-accelerates-global-drive-toward-killer-robots-198725) a annoncé son intention de développer des véhicules de combat robotisés sans équipage. Fedorov a récemment déclaré que les drones tueurs entièrement autonomes sont "une prochaine étape logique et inévitable" dans le développement d'armes.
Satija d'Amnesty International déclare que « les robots tueurs ne sont pas seulement un système de style Terminator. Il s'agit d'un système qui peut sélectionner et engager une cible humaine sans contrôle humain significatif et construit avec des technologies qui accéléreront la violence et la discrimination. et des lignes rouges autour des armes autonomes, nous parlons également des composants de ces systèmes, comme la reconnaissance faciale, qui sont par conception en violation des normes internationales des droits de l'homme. »
En fin de compte, les visages des soldats morts scannés par Clearview AI font taire ces autres applications. L'anthropologue Katherine Verdery, écrivant sur la vie politique des cadavres, montre à quel point les cadavres sont muets et mutables— "symboles ambigus et protéiformes" qui peuvent être utilisés à de nombreuses fins politiques. Au nom des morts, la reconnaissance faciale reçoit un prétexte humanitaire qui occulte son rôle dans la surveillance de masse émergente et la future violence automatisée.