Incidents associés

Un mois avant que le New York Times ne publie l'histoire de Robert Williams, des policiers ont tué George Floyd. Nous nous souvenons tous des semaines qui ont suivi. Les manifestations qui ont éclaté dans tout le pays ont attiré l'attention du monde entier. C'était tellement captivant de regarder ces scènes de guerre civile qu'une partie par ailleurs remarquable de l'histoire est passée presque entièrement sous le radar. Dans 15 villes, le Department of Homeland Security a déployé des avions, des hélicoptères et des drones pour surveiller les manifestants. L'avion a survolé des manifestants à New York, Philadelphie, Détroit, alimentant les centres de commandement des douanes et des patrouilles frontalières, qui ont ensuite transmis les informations aux forces de police et à la Garde nationale au sol. À Minneapolis et D.C., un avion de reconnaissance secret RC-26B a travaillé avec des opérations spéciales au sol, diffusant des flux vidéo vers un centre de commandement du FBI. Dans un autre cas à D.C., les hauts responsables du Pentagone ont ordonné aux hélicoptères d'assurer, entre guillemets, une "présence persistante" pour disperser les foules. Les hélicoptères ont volé si bas au sol que la simple pression vers le bas de leurs pales de rotor a arraché les panneaux des bâtiments. Et, bien sûr, cela a fait courir les manifestants. C'était quelque chose qui sortait de la science-fiction - une opération de renseignement militaire complète sur le sol américain. Dans des rapports ultérieurs, des responsables militaires et gouvernementaux ont insisté sur le fait qu'aucun des avions déployés sur les manifestants n'était équipé de capacités de reconnaissance faciale. Dans la plupart des cas, l'avion était si haut que la reconnaissance faciale serait sans objet - vous ne pouvez pas distinguer un visage d'un blip à 19 000 pieds. Mais si même certains avions volaient suffisamment près pour capturer des visages individuels, ce serait problématique. Selon le New York Times, au moins 270 heures de séquences de protestation ont été capturées par l'avion et téléchargées sur "Big Pipe" - un réseau DHS auquel d'autres organismes d'application de la loi du pays peuvent accéder pour de futures enquêtes. La vidéo dans Big Pipe peut être stockée jusqu'à cinq ans. Une préoccupation potentielle est donc que si un avion enregistrait une vidéo suffisamment bonne, il n'aurait pas besoin de reconnaissance faciale en temps réel à bord : une agence comme le FBI pourrait accéder à ces images des semaines ou des mois plus tard, pour identifier les manifestants individuels. Il est tout à fait possible que cela ne se soit pas produit et ne se produise pas. Mais dans tout le pays, la police a déjà utilisé la reconnaissance faciale pour identifier et, dans certains cas, arrêter des manifestants individuels du BLM. L'étendue de celui-ci est inconnue - la police n'a aucune obligation de signaler quand ils passent votre visage à travers une machine. > "[Ted] Ce qui m'inquiète, c'est qu'il n'y a actuellement aucune limite. Aucune. Donc [. . . ] ils peuvent également l'utiliser pour jeter un coup d'œil à tous ceux qui participent à une manifestation pacifique quelconque et ensuite noter leurs noms et les harceler ou les arrêter ou leur causer des ennuis d'une manière ou d'une autre ou simplement les enregistrer dans une base de données en tant que personne d'intérêt, ce dont nous ne voulons pas qu'il nous soit arrivé." Voici Ted Claypoole - un avocat et un auteur sur les questions juridiques entourant la confidentialité et l'IA. Voici un exemple de ce que Ted entend par "pas de limites": il s'avère que vous pouvez être arrêté sans même savoir que la reconnaissance faciale y a joué un rôle. L'été dernier, une manifestante, Oriana Albornoz, a été arrêtée pour avoir jeté des pierres sur un cordon de police. C'est certainement un crime, mais à aucun moment de son traitement, la police de Miami n'a mentionné - dans la documentation, à son avocat ou à tout autre titre - qu'elle avait utilisé Clearview AI pour l'identifier comme la lanceuse de pierres. Il a fallu une enquête indépendante de NBC News pour découvrir cette information. Et c'est une information importante, non ? Peut-être qu'Oriana était coupable, mais la prochaine Oriana pourrait être un Robert Williams. > "[Ted] Donc, le problème actuel n'est pas nécessairement la technologie. C'est le manque de garde-corps autour de cette technologie et son utilisation par la police." Législation ----------- C'est au milieu de toutes les manifestations du BLM que, le 25 juin, un groupe de législateurs démocrates a proposé la "Facial Recognition and Biometric Technology Moratorium Act". L'objectif de la législation serait, entre guillemets : > « D'interdire la surveillance biométrique par le gouvernement fédéral sans autorisation légale explicite et de refuser certaines subventions fédérales de sécurité publique aux gouvernements des États et locaux qui s'engagent dans la surveillance biométrique. En d'autres termes, les forces de l'ordre ne peuvent utiliser la collecte de données biométriques qu'avec une autorisation légale explicite, et quiconque ne respecte pas la règle perdra le financement fédéral à titre de sanction. Le problème avec ce projet de loi, c'est qu'il n'ira nulle part. En fait, il n'a probablement pas été conçu pour - il ne fait que huit pages, comprenant principalement des définitions juridiques de la signification de termes tels que "reconnaissance faciale" et "reconnaissance vocale". Sérieusement, il n'y a presque pas de loi dans cette loi. La plupart se lit comme ça. Citation : > « FONCTIONNAIRE FÉDÉRAL.—Le terme « fonctionnaire fédéral » désigne tout fonctionnaire, employé, agent, entrepreneur ou sous-traitant du gouvernement fédéral. » Alors vous voyez l'idée, c'est un geste symbolique plus qu'autre chose. Et en général, l'effort juridique pour empêcher la police d'utiliser la reconnaissance faciale n'a pas été beaucoup mieux que cela. > "[Ted] Depuis le 11 septembre, la société américaine en général et les assemblées législatives en particulier détestent imposer des limites au maintien de l'ordre. Ils veulent s'assurer que si quelqu'un est là pour commettre des actes terroristes, la police dispose des outils nécessaires. qu'ils ont besoin de les attraper.>> Cependant, pendant ce temps, je veux dire en d'autres termes au cours des 19 dernières années, beaucoup de ces technologies, pas seulement la reconnaissance faciale, mais par exemple d'autres types de technologies de surveillance comme les personnes portant leur propre géo- dispositif de localisation dans leur smartphone, autour d'eux 24 heures sur 24, 7 jours sur 7. Toutes ces technologies se sont développées au cours des 15 ou 20 dernières années et parce que les législatures et d'autres n'ont pas été très intéressées à cerner et à mettre des garde-corps autour de la police pendant cette période, elles vraiment pas mis de règles du tout." Le premier petit pas vers une réglementation significative de la reconnaissance faciale a eu lieu le 14 mai 2019 à San Francisco, où le conseil de surveillance de la ville a voté à 8 contre 1 pour interdire purement et simplement la reconnaissance faciale parmi les forces de l'ordre. Dix mois plus tard, l'État de Washington a signé la loi la plus étendue dans cet espace, obligeant les forces de l'ordre à obtenir des mandats légaux, ou même à fournir un avis et à demander la permission de l'individu en question, avant d'utiliser la reconnaissance faciale. Parmi de nombreuses autres dispositions, il stipule également que les agences doivent régulièrement tester l'exactitude et les biais des algorithmes qu'elles utilisent, puis signaler les résultats à l'État. La loi de Washington pourrait être un signe de l'avenir mais, selon toute vraisemblance, ce ne sera pas le cas. C'est, bien sûr, le seul État de ce type avec des règles aussi strictes. Même le cas de San Francisco est, en fin de compte, très faible parce que c'est juste la loi de la ville. Si vous êtes un manifestant à San Francisco, la police de San Francisco ne peut pas utiliser la reconnaissance faciale contre vous, mais la Garde nationale n'a pas à suivre les mêmes règles, ni le FBI, ni même la police de l'État de Californie. > "[Ted] Je pense que peut-être que si l'American Bar Association publiait des déclarations, des déclarations politiques selon lesquelles ils pensent que c'est la meilleure façon d'utiliser cette technologie du point de vue du quatrième amendement, de l'utiliser dans les limites de la constitution . Cela pourrait aider. > > Mais vraiment, ce que nous avons probablement besoin de voir, c'est qu'un endroit comme l'État de Californie considère cela comme un problème, puis adopte une loi à ce sujet, car vraiment, lorsque vous avez un grand État qui prend le leadership dans ce rôle , alors tout le monde semble le regarder attentivement." Vous ne pouvez pas arrêter le progrès ---------------------- Peut-être que la législation réglementera un jour la reconnaissance faciale à plus grande échelle. Mais l'histoire démontre, maintes et maintes fois, que vous ne pouvez pas arrêter le progrès. En règle générale, les technologies s'améliorent et se répandent avec le temps, il n'y a donc aucune raison de penser que la reconnaissance faciale ne deviendra pas incroyablement précise et complètement omniprésente dans notre société dans des années. L'univers où les gouvernements cessent d'utiliser cette technologie par souci de protection de la vie privée semble beaucoup plus improbable que l'univers où cela devient si normal que nous nous y habituons tous. Pour ceux d'entre vous qui croient que la reconnaissance faciale est bonne parce qu'elle prévient le crime, ce sera une bonne chose. Pour ceux d'entre vous qui se méfient des forces de l'ordre ou qui protègent votre vie privée, ce sera une dystopie effrayante. Mais ce n'est pas obligé. L'univers que vous imaginez maintenant - où les caméras sont partout et où les gouvernements vous suivent constamment avec votre visage - est conditionné à certains égards par toute la science-fiction que nous avons vue et lue au fil des ans. Dans la plupart des films de science-fiction, la collecte de données biométriques est quelque chose qui nous arrive, contre nous. Beaucoup de ces histoires ne considèrent pas comment la même technologie peut être utilisée par nous. Présentation d'Andrew/Belarus ----------------------- > "[Andrew] Je m'appelle Andrew Maximov. Je suis fondateur et PDG de Promethean AI et développeur de jeux vidéo avec environ une décennie et demie d'expérience." Andrew Maximov n'est pas un militant de métier. Il a fait ses armes en tant que directeur artistique de la série « Uncharted », certains des jeux vidéo les plus populaires au monde. Mais plus tôt cette année, il s'est tourné vers un tout autre type de projet. Pour comprendre pourquoi, vous devez d'abord comprendre la situation politique dans son pays d'origine, la Biélorussie. > "[Andrew] La Biélorussie a été largement qualifiée de dernière dictature d'Europe. [. . . ] Je veux dire que c'est vraiment une situation extrêmement malheureuse. C'est ainsi depuis 20 ou 26 ans." Depuis la dissolution du bloc soviétique, la Biélorussie est sous le contrôle d'un seul dirigeant : Alexandre Loukachenko. > "[Andrew] [c'est un] régime autoritaire qui a fait disparaître des gens depuis les années 90 et rien n'a vraiment changé. [. . . ] Les gens sont régulièrement poursuivis, emprisonnés, persécutés ou exilés pour leurs opinions politiques, qu'ils agissent en conséquence ou qu'ils les épousent publiquement." Selon Reporters sans frontières, la Biélorussie est le pays le plus dangereux pour les journalistes en Europe. Les dirigeants de l'opposition politique sont régulièrement contraints de fuir le pays, ou pire. > "[Andrew] Il y a eu cinq élections présidentielles et aucune d'entre elles n'a été largement reconnue comme libre ou équitable." Le 9 août 2020, Loukachenko a été réélu président pour la sixième fois. Ou, pour le dire plus précisément : son camp a revendiqué la victoire. Il ne fait aucun doute que le nombre réel de votes n'avait pas d'importance. Ainsi, comme ils l'ont fait la dernière fois que Loukachenko a été élu, des manifestations ont éclaté. Et, comme ils l'ont fait la dernière fois que des manifestations ont éclaté, certains dissidents ont été confrontés à la violence. > "[Andrew] Je pense que le sentiment dominant que vous avez en grandissant dans une dictature est celui du désespoir et de l'impuissance et qui ne disparaît jamais. Vous portez cela avec vous et tout autant que cela, vous portez également la culpabilité pour ne pas être en mesure de protéger les gens à gauche et à droite de vous lorsque vous les voyez être battus ou arrêtés par des voyous en uniforme qui prétendent représenter la loi d'une manière ou d'une autre." Couvre-visage -------------- Il existe de nombreuses vidéos publiées sur les réseaux sociaux où la police biélorusse appréhende violemment ou bat activement des civils. Dans la plupart de ces vidéos, les policiers portent des couvre-visages. Au début, c'est parfaitement compréhensible : pendant le COVID, tout le monde devrait porter des masques. Mais vous avez l'impression que cela n'a rien à voir avec COVID. La police portait ces masques avant la pandémie et, franchement, ils n'ont rien de médical. Ce sont généralement des masques de ski, et ils ne couvrent que parfois le nez. Dans une vidéo, le masque d'un policier couvre son nez mais se termine au-dessus de sa bouche. De toute évidence, il ne s'agit pas de germes. > "[Andrew] Ils le couvrent régulièrement parce que - eh bien, je suis presque sûr que la plupart d'entre eux sont bien conscients qu'ils ne font pas quelque chose que la société dans son ensemble apprécierait. [. . . . ] s'il entre dans les jours post-COVID, je suis sûr que personne n'enlèvera son masque de si tôt." La police porte des masques pour pouvoir faire ce qu'elle veut aux manifestants et ne pas en être tenue responsable. Ce n'est pas un phénomène rare. Tout au long des manifestations de George Floyd, par exemple, des officiers capturés par vidéo enregistraient leurs badges ou ne portaient aucune information d'identification sur leurs uniformes. > "[Andrew] Parce que l'un des moyens les plus efficaces de faire pression sur eux est juste la formation sociale de manière comparable et il y a un - des gens, vous savez, qui protestent avec des affiches disant : "La désanonymisation sauve des vies", parce que dans certains cas, c'est le cas." La vidéo --------- Andrew vit à L.A. maintenant, il n'a donc pas pu participer aux manifestations. Mais il a trouvé une nouvelle façon de contribuer à la cause. https://www.youtube.com/watch?v=FAJIrnphTFg C'est Andrew, dans une vidéo publiée sur YouTube le 24 septembre 2020. Traduit, il déclare : "Vos enfants vous regarderont en face lorsque vous commettrez le les actes les plus méprisables de votre vie." La vidéo compte plus d'un million de vues, ce qui est plutôt bien pour un pays de moins de dix millions d'habitants. Ce fut un succès instantané en raison de la radicalité du concept. Dans la vidéo, Andrew démontre avec diligence, au cas par cas, un logiciel qu'il a construit qui démasque la police violente. C'est assez sauvage. Pendant cinq minutes, il prend des extraits de violence policière, les fige et montre comment son algorithme peut interpréter uniquement les traits du visage qui sont montrés - les yeux et le nez, parfois juste les yeux - et les mapper sur le visage d'une personne réelle. > "[Andrew] Pour tous ceux qui continueront à terroriser, tout le monde dans leur vie saura ce que vous avez fait. Le conducteur avec qui vous croiserez les yeux en traversant la rue avec votre famille, des groupes d'ouvriers ou de jeunes hommes que vous passer la nuit, le médecin qui soignera vos enfants, ils sauront tous ce que vous avez fait. Vous êtes censé défendre le peuple biélorusse. Comment ça marche ------------> "[Nate] Parlez-moi de la technologie dans cette vidéo et de son fonctionnement. > > "[Andrew] C'était en fait assez surprenant de voir comment - surprenant et troublant de constater à quel point il était facile de mettre en place un outil de reconnaissance faciale. Vous pouvez éventuellement le faire en un après-midi. C'est la partie effrayante. Comme, vous savez, un lycéen avec un ordinateur portable pourrait faire ça. > > [. . . ] Il s'agit d'un tas de modèles de vision par ordinateur ou de modèles de reconnaissance faciale prêts à l'emploi que vous pouvez exploiter et [. . . ] Ils ont juste cette couche neurale profonde qui représente en quelque sorte certains traits du visage qui est comme une représentation multidimensionnelle répartie autour de, peu importe, 50 neurones, n'est-ce pas ? Cela définirait toutes sortes de choses que [. . . ] revient à représenter un visage individuel dans une image particulière par exemple. > > Ensuite, tout ce que nous avons à faire, c'est de gratter tout un tas d'images, de créer une bibliothèque de ces visages, puis de les comparer à d'autres visages. Donc, dans ce cas en Biélorussie, il y a juste un effort général pour la désanonymisation, n'est-ce pas ? Il n'y a que des gens qui publient des photos de policiers. Il existe des chaînes Telegram parce que cela s'est avéré plus difficile pour le gouvernement de fermer [. . . ] > > Vous pouvez écrire - il existe des API pour littéralement n'importe quoi. Vous pouvez créer un bot Instagram auquel les gens peuvent soumettre cela. Vous pouvez, oui, avoir un client qui le grattera automatiquement. Vous pouvez le faire à la main. Dans mon cas, j'ai en fait fait appel à quelques autres personnes pour les aider à sauvegarder littéralement toutes les images pertinentes qu'elles trouvent, car le type de solidarité communautaire est assez fort [. . . ]. qui aide à constituer cette bibliothèque de personnes sans masques. En fait, ils exécutent simplement ce modèle, extraient les fonctionnalités, puis vous exécutez la même chose sur les personnes avec les masques et toutes les autres photos. Vous savez, arrêtez l'image à partir des vidéos qu'ils reçoivent, puis vous obtenez un certain nombre de correspondances avec une certaine confiance et vous savez, vous pouvez en quelque sorte vérifier manuellement en plus de cela." Une fois qu'il a une correspondance de haute confiance, Andrew superpose l'image sans masque sur l'image masquée et fait un peu de reconstruction numérique en cours de route. > "[Andrew] La reconstruction faciale réelle est un peu plus délicate. C'est aussi un peu plus difficile à faire dans les rayons. [. . . ] Mais c'est aussi tout à fait faisable." Ce n'est pas un système parfait - parfois les visages superposés ont l'air un peu caricaturaux. Mais ils semblent aussi, pour la plupart, assez précis. > "[Andrew] N'importe quel type d'outils d'IA, aucun d'entre eux n'est jamais correct à 100 %, juste un point, car ils fonctionnent tous sur la base de l'ensemble de données sur lequel ils ont été formés et ils sont manifestement connus pour avoir préjugés pour être complet." Pour compléter l'algorithme, Andrew a utilisé ses propres yeux et ceux de ses collègues pour essayer de vérifier leurs résultats. > "[Andrew] Il devrait toujours y avoir un humain pour valider et vérifier." Identification erronée ----------------- La vidéo d'Andrew est une preuve de concept : la reconnaissance faciale peut être utilisée non seulement par la police contre des civils, mais aussi par des civils contre la police. Cela ouvre toute une grande boîte de Pandore. > "[Nate] L'une des choses qui m'est venue à l'esprit lorsque j'ai regardé votre vidéo est que cela revient à la question de l'exactitude. Nous avons - vous savez, évidemment vous n'auriez pas créé et publié ce que vous avez fait si vous ne pensiez pas que les résultats étaient exacts. Mais est-ce la conséquence même de se tromper de manière extrêmement élevée ? Comme vous pourriez finir par accuser la mauvaise personne de très mauvaises choses et les faire passer par ce que vous voulez que les gens vous obtenez, d'accord, de passer.>> [Andrew] Je ne pense pas qu'un programme puisse être suffisamment efficace pour que vous ne vous en inquiétiez pas. C'est une énorme préoccupation et oui, et nous nous sommes trompés sur une personne . Donc, ce n'était absolument pas une blague pour moi et c'est une responsabilité que vous devez assumer. Encore une fois, il n'y avait personne qui n'était pas associé aux forces armées et la personne à qui nous nous sommes trompés était un ex-policier qui était renvoyé de la Force parce qu'il extorquait des pots-de-vin à des hommes d'affaires. [. . . . ] > > Ils étaient très mécontents de nous, ce qui est compréhensible et pour moi, je pense que c'est juste une question d'intérêt général, n'est-ce pas ? Je veux dire, je - vous devez assumer cette responsabilité que je ne souhaiterais à personne dans le monde parce que si cela a la moindre chance de tempérer la violence, même le moins du monde, alors cela pourrait en valoir la peine parce que l'inconfort d'un ex-policier par rapport à littéralement des milliers de personnes qui sont emprisonnées et battues dans la rue, cela ne pèse tout simplement pas. > > Je sais que dans un monde idéal, vous voulez vous assurer que personne ne soit jamais blessé à la suite de ce que nous faisons et je le comprends parfaitement. Mais ouais, c'est juste la question de devoir passer un appel et à ce moment-là, c'était à moi d'en faire un et ben, ouais, je dois vivre avec les conséquences de ça, ouais." Sharing the Algorithm --- ------------------ Mal identifier l'un des policiers, devant un public d'un million de personnes, est une chose avec laquelle Andrew doit vivre maintenant, mais ce n'est pas son seul fardeau. > "[Andrew] J'ai reçu des tonnes de demandes de la part de gens pour publier ça et cela ressemble évidemment à une recette pour un désastre pour moi." Beaucoup de Biélorusses - et de non-Biélorusses - voulaient naturellement mettre la main ce logiciel. Andrew a décidé de ne pas le distribuer. > "[Andrew] c'était une terrible décision à prendre parce que – même à ce jour, je reçois des e-mails de personnes du monde entier qui se trouvent dans une situation similaire disant : vous savez, ils sont brutalisés, ils sont battus et ils ont l'impression que leur gouvernement les laisse tomber et qu'ils n'ont aucun moyen de se protéger vraiment parce que le gouvernement a le monopole de la violence et qu'il n'y a pas de freins et contrepoids dans beaucoup d'endroits. Malheureusement, la plupart du temps, les États-Unis sont également inclus. > > C'est juste déchirant. Mais, vous savez, j'ai littéralement - j'ai mis le projet en attente au moment où je travaillais sur la partie qui pouvait simplement gratter arbitrairement n'importe quel site Web pour les matchs parce que cela avait juste semblé être un - le tout rien que pour moi ... Je le ferais plutôt cela ne devait pas exister du tout. C'est la partie triste de celui-ci. Comme les préoccupations éthiques sont ridicules. > > Et bien qu'il n'y ait pas d'avenir où la police ne sera pas aussi facilement identifiée que tous ceux qu'elle identifie, je ne veux certainement pas être la police dans un sens, c'est-à-dire abuser de ces outils et [. . . ] surtout avec la possibilité d'abus car quelqu'un aurait pu aussi facilement utiliser cet outil. Je ne sais pas, traquer leur ex-petite amie ou leur ex-femme ou quelque chose de beaucoup plus sinistre et c'est terrible. > > Donc, le simple fait d'avoir cela comme un outil public est terrifiant pour moi. » Conclusion ---------- La question de cet épisode a été : les forces de l'ordre devraient-elles utiliser la reconnaissance faciale ? criminels, mais aussi à quel point il peut être biaisé et à quel point il est susceptible d'être utilisé à mauvais escient. Il s'avère que ce n'était pas la bonne question. Ce que nous devrions vraiment nous demander, c'est : comment pouvons-nous gérer la reconnaissance faciale, et tout le pouvoir qu'elle donne à Il s'agit d'une technologie qui peut causer des dommages extrêmes, que ce soit en facilitant une dystopie orwellienne où Big Brother surveille toujours, ou en identifiant - ou en identifiant à tort - quelqu'un qui pourrait être gravement blessé pour avoir été exposé à quoi qu'il soit devant la caméra faire, bon ou mauvais. La question est de savoir si nous, en tant que société, serons comme Andrew ? Allons-nous reconnaître le pouvoir de cette technologie, et le pouvoir de son utilisation abusive, et y remédier à temps pour éviter de terribles conséquences ? Probablement pas. l'application ne se régulera pas d'elle-même, et c'est encore un problème trop marginal pour que la plupart des Américains s'en soucient, de sorte que les politiciens feraient généralement mieux de ne pas y toucher. > "[Ted] En ce moment, imposer des limites aux forces de police donne l'impression que vous vous opposez à la loi et à l'ordre. Donc, que ce soit vrai ou faux, cela a toujours été une attaque d'un côté contre l'autre, c'est tout votre - si vous dites que la police ne peut pas faire ça, cela signifie que vous êtes du côté des criminels. Vous savez, et les législateurs sont très, très sensibles à ces attaques. Il est plus probable qu'improbable que les forces de l'ordre continueront de collecter vos données biométriques, même si vous ne le souhaitez pas. Et à un moment donné, quelqu'un construira un logiciel comme celui d'Andrew et le publiera pour un usage public. Parce qu'il n'y a pas d'arrêt du progrès technologique. Vous ne pouvez que surfer sur la vague et espérer ne pas vous écraser.