Incidents associés
Ceci est un extrait d'une newsletter de Politico. Pour le rapport complet, veuillez visiter le site Web lui-même.
DEEPFAKES : QUAND LE PERSONNEL EST POLITIQUE
--- CARA HUNTER, UNE POLITIQUE NORD-IRLANDAISE, N'ÉTAIT QU'À QUELQUES SEMAINES DES ÉLECTIONS LÉGISLATIVES DE 2022 lorsqu'elle a reçu un message WhatsApp d'une personne qu'elle ne connaissait pas. L'homme lui a rapidement demandé si elle était la femme dans une vidéo explicite - un clip de 40 secondes qu'il a partagé avec la jeune femme alors âgée de 24 ans. En ouvrant la vidéo, Hunter a été confrontée à une vidéo deepfake générée par l'IA la montrant en train d'accomplir des actes sexuels explicites. En quelques jours, le faux clip est devenu viral et la Nord-Irlandaise a été bombardée de messages directs d'hommes du monde entier avec des messages de plus en plus sexuels et violents.
« C'était une campagne visant à me saper politiquement », m'a expliqué Hunter, qui a remporté son siège à l'Assemblée d'Irlande du Nord en 2022 avec seulement quelques voix d'avance. « Ils avaient le sentiment que, parce qu'ils avaient vu une photo explicite de quelqu'un qui me ressemblait, ils pouvaient m'envoyer des messages désagréables. Cela a laissé une image ternie de moi que je ne peux pas contrôler. Je devrai payer les répercussions de cela pour le reste de ma vie. »
Avant d'aborder le sujet, soyons très clairs : la pornographie deepfake n'est malheureusement pas nouvelle. Elle existe depuis près d'une décennie et cible presque entièrement les femmes. Le sujet a regagné l'attention du public après que Taylor Swift soit devenue la dernière victime lorsque des images graphiques générées par l'IA d'elle ont été créées, principalement via un forum 4Chan, puis largement partagées sur X, anciennement connu sous le nom de Twitter. Je ne veux pas non plus expliquer à tout le monde ce que toutes les femmes qui lisent ceci savent déjà. Tout est question de pouvoir. Le pouvoir de rabaisser les femmes ; le pouvoir de contrôler la façon dont les femmes peuvent participer à la vie publique ; le pouvoir de faire taire les voix que les hommes (et c'est presque exclusivement des hommes) considèrent comme indignes. Ne me croyez pas sur parole. Il y a eu de très bons reportages sur ce sujet, depuis des années. (Ici, ici et ici.) Je n'ai trouvé aucun exemple de politiciens masculins ciblés par de tels abus sexuels.
« Ces vidéos deepfake disent aux femmes de se retirer de la vue du public », m'a expliqué Claire McGlynn, une éminente experte en réponses juridiques aux abus sexuels en ligne. « Ce sont des hommes qui disent aux femmes : « Voilà ce que nous pouvons vous faire. » De nombreuses jeunes femmes sont très conscientes qu’il s’agit d’une nouvelle menace qui plane sur elles. » Autant ce qui est arrivé à Swift a attiré l’attention du monde entier, autant le deepfake porn – alimenté par la dernière génération de technologie d’intelligence artificielle qui rend trop facile la création et le partage de ce type de contenu explicite non consensuel – est partout. Cela arrive aux adolescentes en Espagne, cela arrive aux actrices de cinéma sud-coréennes, cela arrive de plus en plus aux femmes politiques comme Hunter pour réduire au silence leur participation au processus démocratique.
Pour un phénomène aussi répandu, peu de lois, voire aucune, interdisent la création et le partage d'images d'abus sexuels. Des États américains comme la Californie et New York ont des lois sur le deepfake porno, mais jusqu'à présent, elles n'ont pas été utilisées. À la suite du scandale Swift, les sénateurs américains se sont empressés de proposer une loi, même si elle n'a guère de chances d'aboutir et se concentre sur les victimes poursuivant leurs agresseurs. La loi sur les services numériques de l'UE ne dit presque rien sur la pornographie deepfake, bien que les législateurs européens aient soutenu cette semaine une nouvelle loi visant à criminaliser le partage de telles images non consensuelles, mais seulement à partir de 2027. La loi britannique sur la sécurité en ligne contient des dispositions visant la pornographie deepfake, mais la manière dont elle sera mise en œuvre reste encore très incertaine.
Jusqu'à présent, l'Australie est allée plus loin avec sa loi sur la sécurité en ligne, qui donne au commissaire à la sécurité électronique du pays pouvoirs d'obliger les personnes qui partagent des images pornographiques truquées à supprimer les abus sexuels basés sur des images. Elle n'inclut cependant pas de sanctions pénales. À la fin de l'année dernière, l'agence a utilisé cette autorité pour obliger un Australien vivant aux Philippines à supprimer des deepfakes pornographiques --- mais seulement après que cet individu soit retourné en Australie et ait été arrêté par la police locale pour outrage au tribunal. « Nous voyons beaucoup plus de deepfakes », m'a dit Julie Inman-Grant, commissaire australienne à la sécurité électronique, qui a également été la cible de contenus explicites aussi explicites. « Il est très facile pour un jeune d'utiliser Midjourney ou Stable Diffusion --- des applications très puissantes destinées aux consommateurs --- pour créer des deepfakes de ses camarades de classe et les utiliser pour les intimider. »
Pour Hunter, l'homme politique nord-irlandais, c'est là que le personnel devient politique. Après avoir été la cible d'une attaque de deepfake porn, elle a dû expliquer à ses parents ce qui se passait et que la vidéo générée par l'IA n'était pas la sienne. Elle a assisté à des événements publics, allant même jusqu'à boire un verre dans un pub, où les gens ont fait des insinuations humiliantes. Elle a dû peser le pour et le contre, étant donné que cela s'est produit des semaines avant une élection, entre une réfutation publique et le décompte des votes. Elle a eu le sentiment d'avoir été attaquée non pas à cause de ses opinions politiques, mais parce qu'elle était une jeune femme. « C'est grotesque de voir une technologie émergente utilisée pour abuser des femmes », a-t-elle déclaré. « Des années à bâtir la confiance dans ma communauté et d'un seul coup, cela a signifié sweet FA. »