Incidents associés

Les forces de l'ordre et les organisations gouvernementales de 24 pays autres que les États-Unis ont utilisé une technologie de reconnaissance faciale controversée appelée Clearview AI, selon les données internes de l'entreprise examinées par BuzzFeed News. Ces données, qui s'étendent jusqu'en février 2020, montrent que les services de police, les bureaux des procureurs, les universités et les ministères de l'intérieur du monde entier ont effectué près de 14 000 recherches avec le logiciel de Clearview AI. Dans de nombreux organismes d'application de la loi, du Canada à la Finlande, les agents ont utilisé le logiciel à l'insu ou sans l'autorisation de leurs supérieurs. Après avoir reçu des questions de BuzzFeed News, certaines organisations ont admis que la technologie avait été utilisée sans la supervision de la direction. En mars, une enquête de BuzzFeed News basée sur les propres données internes de Clearview AI a montré comment le startup a distribué son outil de reconnaissance faciale, en commercialisant des essais gratuits pour son application mobile ou son logiciel de bureau, à des milliers de dirigeants et d'employés de plus de 1 800 entités financées par les contribuables américains. Clearview affirme que son logiciel est plus précis que les autres technologies de reconnaissance faciale car il est formé sur une base de données de plus de 3 milliards d'images extraites de sites Web et de plateformes de médias sociaux, notamment Facebook, Instagram, LinkedIn et Twitter. Les agents des forces de l'ordre utilisant Clearview peuvent prendre une photo d'un suspect ou d'une personne d'intérêt, l'exécuter via le logiciel et recevoir des correspondances possibles pour cette personne [en quelques secondes](https://www.buzzfeednews.com/article/ryanmac/clearview -ai-nypd-reconnaissance faciale). Clearview a affirmé que son application est [100 % précise dans les documents] (https://www.buzzfeednews.com/article/carolinehaskins1/clearview-ai-facial-recognition-accurate-aclu-absurd) fournie aux responsables de l'application des lois, mais BuzzFeed News a vu le logiciel mal identifier les gens, soulignant une préoccupation plus large concernant les technologies de reconnaissance faciale. Sur la base de nouveaux rapports et de données examinés par BuzzFeed News, Clearview AI a fait le tour du monde de son livre de marketing controversé aux États-Unis, offrant des essais gratuits aux employés des forces de l'ordre dans des pays comme l'Australie, le Brésil et le Royaume-Uni. Pour accompagner cette histoire, BuzzFeed News a créé un tableau consultable de 88 agences et organisations internationales affiliées au gouvernement et financées par les contribuables répertoriées dans les données de Clearview comme ayant des employés qui ont utilisé ou testé le service de reconnaissance faciale de l'entreprise avant février 2020, selon les données de Clearview. Certaines de ces entités se trouvaient dans des pays où l'utilisation de Clearview a depuis été jugée "illégale". À la suite d'une enquête, le commissaire à la protection des données du Canada a statué en février 2021 que Clearview avait "[violé les lois fédérales et provinciales sur la protection de la vie privée](https://www.priv.gc.ca/en/opc-news/news-and-announcements/2021 /nr-c_210203/)" ; il a recommandé à l'entreprise de cesser d'offrir ses services aux clients canadiens, de cesser de collecter des images de Canadiens et de supprimer toutes les images et données biométriques précédemment collectées de personnes dans le pays. Dans l'Union européenne, les autorités évaluent si l'utilisation de Clearview a violé le Règlement général sur la protection des données (RGPD), un ensemble de lois générales sur la confidentialité en ligne qui oblige les entreprises traitant des données personnelles à obtenir le consentement éclairé des personnes. L'autorité néerlandaise de protection des données a déclaré à BuzzFeed News qu'il était "peu probable" que l'utilisation de Clearview par les services de police soit légale, tandis que la Commission nationale française de l'informatique et des libertés a déclaré avoir reçu "plusieurs plaintes" à propos de Clearview qui "font actuellement l'objet d'une enquête". Un régulateur à Hambourg a déjà jugé les pratiques de l'entreprise illégales en vertu du RGPD et lui a demandé de supprimer des informations sur un citoyen allemand. Bien que Clearview soit utilisé dans au moins deux douzaines d'autres pays, le PDG Hoan Ton-That insiste sur le fait que le marché clé de l'entreprise est les États-Unis. "Bien qu'il y ait eu une énorme demande pour notre service dans le monde entier, Clearview AI se concentre principalement sur la fourniture de notre service aux forces de l'ordre et aux agences gouvernementales aux États-Unis", a-t-il déclaré dans un communiqué à BuzzFeed News. "D'autres pays ont exprimé un besoin urgent de notre technologie car ils savent qu'elle peut aider à enquêter sur des crimes tels que le blanchiment d'argent, la fraude financière, les escroqueries amoureuses, la traite des êtres humains et les crimes contre les enfants, qui ne connaissent pas de frontières." Dans la même déclaration, Ton-That a allégué qu'il y avait "des inexactitudes contenues dans les affirmations de BuzzFeed". Il a refusé d'expliquer ce que cela pourrait être et n'a pas répondu à une liste détaillée de questions basées sur les reportages de cette histoire. Selon un document interne de 2019 rapporté pour la première fois par BuzzFeed News, Clearview avait prévu de poursuivre une "expansion internationale rapide" dans [au moins 22 pays](https://www.buzzfeednews.com/article/carolinehaskins1/clearview-ai-facial- reconnaissance-régimes-autoritaires-22). Mais en février 2020, la stratégie de l'entreprise semblait avoir changé. "Clearview se concentre sur les affaires aux États-Unis et au Canada", a déclaré Ton-That à BuzzFeed News à l'époque. Deux semaines plus tard, dans une interview sur PBS, il a précisé que Clearview ne vendrait jamais sa technologie à des pays « très hostiles aux États-Unis », avant de nommer la Chine, la Russie, l'Iran et la Corée du Nord. Depuis lors, Clearview a fait l'objet d'un examen minutieux des médias et de multiples enquêtes gouvernementales. En juillet, à la suite de rapports antérieurs de BuzzFeed News qui montraient que des entreprises privées et des organisations publiques avaient effectué des recherches Clearview en Grande-Bretagne et Australie , les commissaires à la protection de la vie privée de ces pays ont ouvert une enquête conjointe sur l'entreprise pour son utilisation des données personnelles. L'enquête est en cours, selon le bureau du commissaire à l'information du Royaume-Uni, qui a déclaré à BuzzFeed News qu'"aucun autre commentaire ne sera fait tant qu'elle ne sera pas conclue". Les autorités canadiennes ont également décidé de réglementer Clearview après que le Toronto Star, en partenariat avec BuzzFeed News, ait rendu compte de [l'utilisation généralisée du logiciel de l'entreprise dans le pays](https://www.thestar.com/news/canada/2020/02 /27/facial-recognition-app-clearview-ai-a-été-utilisé-beaucoup-plus-largement-au-canada-que-précédemment-connu.html). En février 2020, les commissaires à la protection de la vie privée fédéraux et locaux du Canada ont lancé une enquête sur Clearview, et ont conclu qu'il s'agissait d'une « violation manifeste du droit à la vie privée des Canadiens ». Plus tôt cette année, ces organismes ont officiellement déclaré illégales les pratiques de Clearview dans le pays et recommandé que l'entreprise cesse d'offrir sa technologie aux clients canadiens. Clearview n'était pas d'accord avec les conclusions de l'enquête et n'a pas démontré sa volonté de suivre les autres recommandations, selon le Commissariat à la protection de la vie privée du Canada. Avant cette déclaration, les employés d'au moins 41 entités au sein du gouvernement canadien - la plupart de tous les pays en dehors des États-Unis - étaient répertoriés dans les données internes comme ayant utilisé Clearview. Ces agences allaient des services de police de villes moyennes comme Timmins, une ville de 41 000 habitants où les agents ont effectué plus de 120 perquisitions, aux principaux organismes métropolitains d'application de la loi comme le service de police de Toronto, qui est répertorié dans les données comme ayant effectué plus de 3 400 recherches. en février 2020. Un porte-parole du service de police de Timmins a reconnu que le service avait utilisé Clearview, mais a déclaré qu'aucune arrestation n'avait jamais été effectuée sur la base d'une recherche avec la technologie. Le service de police de Toronto n'a pas répondu aux multiples demandes de commentaires. Les données de Clearview montrent que l'utilisation n'était pas limitée aux services de police. Le bureau des poursuites publiques du ministère de la Justice de la Saskatchewan a effectué plus de 70 recherches avec le logiciel. Un porte-parole a d'abord déclaré que les employés n'avaient pas utilisé Clearview, mais a changé sa réponse après une série de questions de suivi. "Après examen, nous avons identifié des cas autonomes où le personnel du ministère a utilisé une version d'essai de ce logiciel", a déclaré Margherita Vittorelli, porte-parole du ministère. "La Couronne n'a pas utilisé Clearview AI pour soutenir une poursuite. Compte tenu des préoccupations concernant l'utilisation de cette technologie, le personnel du ministère a reçu pour instruction de ne pas utiliser le logiciel de Clearview AI pour le moment." Certains organismes canadiens d'application de la loi ont suspendu ou interrompu leur utilisation de Clearview AI peu de temps après la période d'essai initiale ou ont cessé de l'utiliser en réponse à l'enquête gouvernementale. Selon les données, un détective de l'unité des crimes technologiques du service de police régional de Niagara a effectué plus de 650 recherches lors d'un essai gratuit du logiciel. "Une fois que des inquiétudes ont fait surface avec le commissaire à la protection de la vie privée, l'utilisation du logiciel a été interrompue", a déclaré la porte-parole du ministère, Stéphanie Sabourin, à BuzzFeed News. Elle a déclaré que le détective avait utilisé le logiciel au cours d'une enquête non divulguée à l'insu des officiers supérieurs ou du chef de la police. La Gendarmerie royale du Canada était l'une des rares agences internationales à avoir conclu un contrat avec Clearview et payé pour utiliser son logiciel. L'agence, qui a effectué plus de 450 recherches, a déclaré en février 2020 qu'elle avait utilisé le logiciel dans 15 cas d'exploitation sexuelle d'enfants en ligne, entraînant le sauvetage de deux enfants. En juin, cependant, le Commissariat à la protection de la vie privée du Canada a constaté que la GRC l'utilisation de Clearview violait les lois sur la confidentialité du pays. Le bureau a également constaté que Clearview avait "violé la loi fédérale sur la protection de la vie privée du secteur privé en créant une banque de données de plus de trois milliards d'images récupérées sur des sites Internet sans le consentement des utilisateurs". La GRC a contesté cette conclusion. L'Association canadienne des libertés civiles, un groupe à but non lucratif, a déclaré que Clearview avait facilité "une expérimentation policière irresponsable" au Canada. "Le modèle commercial de Clearview AI, qui récupère des photos de milliards de personnes ordinaires sur Internet et les place dans une file d'attente perpétuelle de la police, est une forme de surveillance de masse illégale et inacceptable dans notre nation démocratique et respectueuse des droits", Brenda McPhail, directeur du programme de confidentialité, de technologie et de surveillance de l'ACLC, a déclaré à BuzzFeed News. Comme un certain nombre d'agences américaines chargées de l'application de la loi, certaines agences internationales ont déclaré à BuzzFeed News qu'elles ne pouvaient pas discuter de leur utilisation de Clearview. Par exemple, le ministère public brésilien de Pernambuco, qui est répertorié comme ayant effectué plus de 100 recherches, a déclaré qu'il "ne fournit pas d'informations sur les questions de sécurité institutionnelle". Mais les données examinées par BuzzFeed News montrent que des individus de neuf agences brésiliennes chargées de l'application de la loi, y compris la police fédérale du pays, sont répertoriés comme ayant utilisé Clearview, effectuant cumulativement plus de 1 250 recherches en février 2020. Tous ont refusé de commenter ou n'ont pas répondu aux demandes. pour commentaire. La National Crime Agency du Royaume-Uni, qui a effectué plus de 500 recherches, selon les données, a refusé de commenter ses techniques d'enquête ; un porte-parole a déclaré à BuzzFeed News au début de 2020 que l'organisation "déploye de nombreuses capacités spécialisées pour traquer les délinquants en ligne qui causent de graves dommages aux membres du public". Les employés du service de police métropolitain du pays ont effectué plus de 150 recherches sur Clearview, selon des données internes. Interrogée sur l'utilisation du service par le département, la police a refusé de commenter. Les documents examinés par BuzzFeed News montrent également que Clearview avait une présence naissante dans les pays du Moyen-Orient connus pour leurs gouvernements répressifs et leurs préoccupations en matière de droits de l'homme. En Arabie saoudite, des personnes du Centre d'études avancées sur l'intelligence artificielle (également connu sous le nom de Thakaa) ont effectué au moins 10 recherches avec Clearview. Aux Émirats arabes unis, des personnes associées à Mubadala Investment Company, un fonds souverain dans la capitale d'Abu Dhabi, ont effectué plus de 100 recherches, selon des données internes. Thakaa n'a pas répondu aux multiples demandes de commentaires. Un porte-parole de Mubadala a déclaré à BuzzFeed News que la société n'utilisait le logiciel dans aucune de ses installations. Les données ont révélé que des personnes de quatre agences australiennes différentes ont essayé ou utilisé activement Clearview, y compris la police fédérale australienne (plus de 100 recherches) et la police de Victoria (plus de 10 recherches), où un porte-parole a déclaré à BuzzFeed News que la technologie était "jugée inappropriée". après une première exploration. "Entre le 2 décembre 2019 et le 22 janvier 2020, des membres du Centre australien de lutte contre l'exploitation des enfants (ACCCE) dirigé par l'AFP se sont inscrits pour un essai gratuit de l'outil de reconnaissance faciale Clearview AI et ont mené un projet pilote limité du système afin de vérifier son efficacité. dans la lutte contre l'exploitation et la maltraitance des enfants", a déclaré Katie Casling, porte-parole de l'AFP, dans un communiqué. Le service de police du Queensland et son unité d'enquête sur les homicides ont effectué plus de 1 000 recherches en février 2020, sur la base des données examinées par BuzzFeed News. Le ministère n'a pas répondu aux demandes de commentaires. Clearview a commercialisé son système de reconnaissance faciale dans toute l'Europe en proposant des essais gratuits lors de conférences de police, où il était souvent présenté comme un outil pour aider à trouver des prédateurs et des victimes d'abus sexuels sur des enfants. En octobre 2019, des agents des forces de l'ordre de [21 nations différentes](https://www.europol.europa.eu/newsroom/news/international-collaboration-europol-leads-to-identification-of-4-victims-of- maltraitance d'enfants) et Interpol se sont réunis au Centre européen de lutte contre la cybercriminalité d'Europol à La Haye aux Pays-Bas pour passer au peigne fin des millions de fichiers d'images et de vidéos de victimes interceptées dans leur pays d'origine dans le cadre d'un groupe de travail sur l'identification des victimes de maltraitance d'enfants. Lors de la réunion, des participants extérieurs qui n'étaient pas membres du personnel d'Europol ont présenté Clearview AI comme un outil qui pourrait les aider dans leurs enquêtes. Après la conférence de deux semaines, qui comprenait des spécialistes de Belgique, de France et d'Espagne, certains agents semblent avoir ramené chez eux ce qu'ils avaient appris et ont commencé à utiliser Clearview. Un porte-parole d'Europol a déclaré à BuzzFeed News qu'il n'approuvait pas l'utilisation de Clearview, mais a confirmé que "des participants externes ont présenté l'outil lors d'un événement organisé par Europol". Le porte-parole a refusé d'identifier les participants. "Clearview AI a été utilisé pendant une courte période de test par quelques employés au sein de la police, y compris dans le cadre d'un cours organisé par Europol. La police n'était pas au courant et n'avait pas approuvé l'utilisation", a déclaré un porte-parole de la police suédoise. a déclaré à BuzzFeed News dans un communiqué. En février 2021, l'autorité suédoise de protection des données a conclu une enquête sur l'utilisation de Clearview et lui a infligé une amende de 290 000 $ pour avoir enfreint la loi suédoise sur les données pénales. La direction du National Bureau of Investigation de Finlande n'a appris l'utilisation de Clearview par les employés qu'après avoir été contactée par BuzzFeed News pour cette histoire. Après avoir initialement nié toute utilisation du logiciel de reconnaissance faciale, un porte-parole a fait marche arrière quelques semaines plus tard, confirmant que les agents avaient utilisé le logiciel pour effectuer près de 120 recherches. "L'unité a testé un service américain appelé Clearview AI pour l'identification d'éventuelles victimes d'abus sexuels afin de contrôler la charge de travail accrue de l'unité au moyen de l'intelligence artificielle et de l'automatisation", a déclaré Mikko Rauhamaa, un détective principal au Bureau national d'enquête de Finlande. dit dans un communiqué. Les questions de BuzzFeed News ont incité le NBI à informer le médiateur finlandais de la protection des données d'une éventuelle violation de données, déclenchant une enquête plus approfondie. Dans une déclaration au médiateur, le NBI a déclaré que ses employés avaient entendu parler de Clearview lors d'un événement d'Europol en 2019, où il était recommandé de l'utiliser dans les cas d'exploitation sexuelle d'enfants. Le NBI a depuis cessé d'utiliser Clearview. Les données examinées par BuzzFeed News montrent qu'au début de 2020, Clearview avait fait son chemin à travers l'Europe. La police d'État italienne, Polizia di Stato, a effectué plus de 130 recherches, selon les données, bien que l'agence n'ait pas répondu à une demande de commentaire. Un porte-parole du ministère français de l'Intérieur a déclaré à BuzzFeed News qu'ils n'avaient aucune information sur Clearview, malgré des données internes indiquant que les employés associés au bureau avaient effectué plus de 400 recherches. "L'unité Crimes contre les enfants d'INTERPOL utilise une gamme de technologies dans son travail pour identifier les victimes d'abus sexuels d'enfants en ligne", a déclaré un porte-parole de la police internationale basée à Lyon, en France, à BuzzFeed News, interrogé sur les plus de 300 recherches de l'agence. "Un petit nombre d'agents ont utilisé un compte d'essai gratuit de 30 jours pour tester le logiciel Clearview. Il n'y a pas de relation formelle entre INTERPOL et Clearview, et ce logiciel n'est pas utilisé par INTERPOL dans son travail quotidien." L'abus sexuel d'enfants justifie généralement l'utilisation d'outils puissants afin de sauver les victimes ou de retrouver les auteurs. Mais Jake Wiener, juriste au Electronic Privacy Information Center, a déclaré que de nombreux outils existent déjà pour lutter contre ce type de crime et, contrairement à Clearview, ils n'impliquent pas une collecte massive non autorisée de photos que des milliards de personnes publier sur des plateformes comme Instagram et Facebook. "Si la police veut simplement identifier les victimes de la traite des enfants, il existe déjà des bases de données et des méthodes solides", a-t-il déclaré. "Ils n'ont pas besoin de Clearview AI pour faire cela." Depuis le début de 2020, les régulateurs au Canada, en France, en Suède, en Australie, au Royaume-Uni et en Finlande ont ouvert des enquêtes sur l'utilisation de Clearview par leurs agences gouvernementales. Certains experts en confidentialité pensent que Clearview a violé les lois européennes sur la confidentialité des données, connues sous le nom de RGPD. Certes, le RGPD inclut certaines exemptions pour les forces de l'ordre. Il note explicitement que « des enquêtes discrètes ou une vidéosurveillance » peuvent être menées « aux fins de la prévention, de l'investigation, de la détection ou de la poursuite d'infractions pénales ou de l'exécution de sanctions pénales, y compris la protection contre et la prévention des menaces contre l'ordre public ». sécurité..." Mais en juin 2020, le comité européen de la protection des données, l'organe indépendant qui supervise l'application du RGPD, a publié des [orientations](https://edpb.europa.eu/news/news/2020/thirty- first-plenary-session-establishment-taskforce-tiktok-response-meps-use_en) que "l'utilisation d'un service tel que Clearview AI par les autorités répressives de l'Union européenne ne serait, en l'état, probablement pas conforme à l'UE régime de protection des données." En janvier dernier, le commissaire de Hambourg à la protection des données et à la liberté d'information en Allemagne, un pays où les agences avaient aucune utilisation connue de Clearview en février 2020, selon les données - est allé encore plus loin ; il a estimé que Clearview elle-même enfreignait le RGPD et a ordonné à l'entreprise de supprimer les informations biométriques associées à une personne qui avait déposé une plainte antérieure. Dans sa réponse aux questions de BuzzFeed News, Ton-That a déclaré que Clearview avait "volontairement traité" les demandes de personnes au sein de l'Union européenne pour que leurs informations personnelles soient supprimées des bases de données de l'entreprise. Il a également noté que Clearview n'a pas de contrat avec des clients de l'UE "et n'est actuellement pas disponible dans l'UE". Il a refusé de préciser quand Clearview a cessé d'être disponible dans l'UE. Christoph Schmon, directeur de la politique internationale de l'Electronic Frontier Foundation, a déclaré à BuzzFeed News que le RGPD ajoute un nouveau niveau de complexité pour les policiers européens qui avaient utilisé Clearview. En vertu du RGPD, la police ne peut pas utiliser de données personnelles ou biométriques à moins que cela ne soit "nécessaire pour protéger les intérêts vitaux" d'une personne. Mais si les forces de l'ordre ne savent pas que des agents utilisent Clearview, il est impossible de faire de telles évaluations. "Si les autorités n'ont fondamentalement pas su que leur personnel avait essayé Clearview, je trouve cela assez étonnant et assez incroyable, pour être honnête", a-t-il déclaré. "C'est le travail des autorités chargées de l'application de la loi de connaître les circonstances dans lesquelles elles peuvent produire des données sur les citoyens et une responsabilité encore plus élevée d'être tenues responsables de toute utilisation abusive des données des citoyens." De nombreux experts et groupes de défense des droits civiques ont fait valoir qu'il devrait y avoir une interdiction de l'utilisation gouvernementale de la reconnaissance faciale. Indépendamment de la précision d'un logiciel de reconnaissance faciale, des groupes comme Algorithmic Justice League soutiennent que sans réglementation et surveillance appropriée, cela peut entraîner une surveillance excessive ou de fausses arrestations. "Notre position générale est que la technologie de reconnaissance faciale est problématique, donc les gouvernements ne devraient jamais l'utiliser", a déclaré Schmon. Non seulement il y a de fortes chances que les policiers abusent de la reconnaissance faciale, a-t-il dit, mais la technologie a tendance à mal identifier les personnes de couleur à des taux plus élevés que les blancs. Schmon a également noté que les outils de reconnaissance faciale ne fournissent pas de faits. Ils fournissent une probabilité qu'une personne corresponde à une image. "Même si les probabilités ont été conçues correctement, cela peut toujours refléter des biais", a-t-il déclaré. "Ils ne sont pas neutres." Clearview n'a pas répondu aux questions sur ses allégations d'exactitude. Dans une déclaration de mars à BuzzFeed News, Ton-That a déclaré : "En tant que personne métisse, veiller à ce que Clearview AI soit impartial est d'une grande importance pour moi." Il a ajouté: "Sur la base de tests indépendants et du fait qu'aucune arrestation injustifiée liée à l'utilisation de Clearview AI n'a été signalée, nous respectons cette norme." Bien qu'ils aient fait l'objet d'enquêtes et, dans certains cas, d'interdictions dans le monde, les dirigeants de Clearview semblent avoir déjà commencé à jeter les bases d'une expansion future. La société a récemment levé 30 millions de dollars, selon le New York Times, et elle a fait un certain nombre de nouvelles embauches. En août dernier, les cofondateurs Ton-That et Richard Schwartz, ainsi que d'autres dirigeants de Clearview, sont apparus sur les documents d'enregistrement des sociétés appelées Standard International Technologies à Panama et [Singapour] (https://recordowl.com/company/standard-international-technologies-pte-ltd). Dans une déposition pour un procès en cours aux États-Unis cette année, le dirigeant de Clearview, Thomas Mulcaire, a fait la lumière sur le but de ces sociétés. Bien que les filiales n'aient pas encore de clients, a-t-il déclaré, l'entité panaméenne a été créée pour "potentiellement traiter avec les forces de l'ordre d'Amérique latine et des Caraïbes qui souhaiteraient utiliser le logiciel Clearview". Mulcaire a également déclaré que la société singapourienne nouvellement formée pourrait faire des affaires avec les forces de l'ordre asiatiques. Dans un communiqué, Ton-That s'est abstenu de confirmer ces intentions mais n'a fourni aucune autre explication pour cette décision. "Clearview AI a créé deux entités internationales qui n'ont mené aucune activité", a-t-il déclaré.