Incidents associés

Dans son «évaluation mondiale de la menace» annuelle, les hauts responsables du renseignement américain ont mis en garde ces dernières années contre la menace posée par les soi-disant deepfakes – de fausses vidéos convaincantes réalisées à l'aide de l'intelligence artificielle.
"Les adversaires et les concurrents stratégiques", ont-ils averti en 2019, pourraient utiliser cette technologie "pour créer des fichiers image, audio et vidéo convaincants, mais faux, afin d'augmenter les campagnes d'influence dirigées contre les États-Unis et nos alliés et partenaires".
Les scénarios ne sont pas difficiles à imaginer ; une vidéo truquée montrant un politicien dans une position compromettante ; audio truqué d'un leader mondial discutant d'informations sensibles.
La menace ne semble pas trop lointaine. Le récent succès viral de ChatGPT, un A.I. chatbot qui peut répondre aux questions et écrire de la prose, rappelle à quel point ce type de technologie peut être puissant.
Mais malgré les avertissements, nous n'avons pas vu de nombreux cas notables, à notre connaissance, où des deepfakes ont été déployés avec succès en géopolitique.
Mais il y a un groupe contre lequel la technologie a été militarisée de manière constante et pendant plusieurs années : les femmes.
Les deepfakes ont été utilisés pour mettre des visages de femmes, sans leur consentement, dans des vidéos pornographiques souvent agressives. C'est une version dépravée de l'IA sur la pratique humiliante du porno de vengeance, avec des vidéos deepfake apparaissant si réelles qu'il peut être difficile pour les femmes victimes de nier que ce n'est pas vraiment elles.
Le problème qui mijotait depuis longtemps a explosé dans la vue du public la semaine dernière lorsqu'il est apparu qu'Atrioc, un streamer de jeux vidéo masculin de haut niveau sur la plate-forme extrêmement populaire Twitch, avait accédé à des vidéos deepfake de certaines de ses collègues féminines de streaming Twitch. Plus tard, il s'est excusé.
Au milieu des retombées, le streamer Twitch "Sweet Anita" a réalisé que de fausses représentations d'elle dans des vidéos pornographiques existaient en ligne.
"C'est très, très surréaliste de se regarder faire quelque chose que vous n'avez jamais fait", a déclaré à CNN la streameuse Twitch "Sweet Anita" après avoir réalisé la semaine dernière que son visage avait été inséré dans des vidéos pornographiques sans son consentement.
"C'est un peu comme si vous regardiez quelque chose de choquant vous arriver. Par exemple, si vous regardiez une vidéo de vous-même en train d'être assassiné ou une vidéo de vous sautant d'une falaise », a-t-elle déclaré.
Mais l'utilisation profondément troublante de la technologie de cette manière n'est pas nouvelle.
En effet, le terme même "deepfake" est dérivé du nom d'utilisateur d'un contributeur anonyme de Reddit qui a commencé à publier des vidéos manipulées de célébrités féminines dans des scènes pornographiques en 2017.
"Dès le début, la personne qui a créé les deepfakes l'utilisait pour faire de la pornographie de femmes sans leur consentement", a déclaré à CNN Samantha Cole, journaliste de Vice's Motherboard, qui suit les deepfakes depuis leur création.
La communauté des jeux en ligne est un endroit notoirement difficile pour les femmes - la campagne de harcèlement "Gamergate" de 2014 est la plus exemple marquant.
Mais les inquiétudes concernant l'utilisation d'images pornographiques non consensuelles ne sont pas exclusives à cette communauté et menacent de devenir plus courantes à mesure que la technologie de l'intelligence artificielle se développe à une vitesse vertigineuse et que la facilité de création de vidéos deepfake continue de s'améliorer.
"Je suis déconcerté par la façon dont les gens sont horribles les uns envers les autres sur Internet d'une manière que je ne pense pas qu'ils seraient face à face", Hany Farid, professeur à l'Université de Californie à Berkeley et expert en criminalistique numérique, a déclaré à CNN.
"Je pense que nous devons commencer à essayer de comprendre pourquoi cette technologie, ce médium, permet et fait ressortir apparemment le pire de la nature humaine ? Et si nous voulons que ces technologies soient ancrées dans nos vies comme elles semblent l'être, je pense que nous allons devoir commencer à réfléchir à la façon dont nous pouvons être de meilleurs êtres humains avec ces types d'appareils », a-t-il déclaré. .
Cela fait partie d'un problème systémique beaucoup plus vaste.
"Tout est dans la culture du viol", a déclaré Cole, "je ne sais pas quelle est la solution réelle autre que d'aborder ce problème fondamental de manque de respect et de non-consentement et d'accepter de violer le consentement des femmes."
Les législateurs ont déployé des efforts pour réprimer la création d'images non consensuelles, qu'elles soient générées par l'IA ou non. En Californie, des lois ont été introduites pour [essayer de contrer](https://www.dwt.com/ insights/2019/10/california-deepfakes-law) le potentiel d'utilisation des deepfakes dans une campagne électorale et dans la pornographie non consensuelle.
Mais il y a du scepticisme. "Nous n'avons même pas résolu les problèmes du secteur technologique d'il y a 10 ou 20 ans", a déclaré Farid, soulignant que le développement de l'intelligence artificielle "va beaucoup, beaucoup plus vite que la révolution technologique d'origine".
"Allez vite et cassez les choses", était la devise du fondateur de Facebook, Mark Zuckerberg, aux débuts de l'entreprise. Au fur et à mesure que la puissance, et même le danger, de sa plate-forme devenaient plus clairs, il changea plus tard la devise en « Avancez vite avec une infrastructure stable ».
Qu'il s'agisse de négligence délibérée ou d'ignorance, la Silicon Valley n'était pas préparée à l'assaut de haine et de désinformation qui s'est propagé sur ses plateformes. Les mêmes outils qu'il avait construits pour rassembler les gens ont également été militarisés pour diviser.
Et bien qu'il y ait eu beaucoup de discussions sur «l'IA éthique», alors que Google et Microsoft semblent prêts pour une course aux armements en matière d'IA, on craint que les choses n'évoluent trop rapidement.
"Les personnes qui développent ces technologies - les universitaires, les personnes dans les laboratoires de recherche de Google et Facebook - vous devez commencer à vous demander, 'pourquoi développez-vous cette technologie ?'", a suggéré Farid.
"Si les inconvénients l'emportent sur les avantages, devriez-vous bombarder Internet avec votre technologie et la diffuser, puis vous asseoir et dire : "Eh bien, voyons ce qui se passera ensuite ?"