Incidents associés

En 2020, Kate Isaacs a ouvert son compte Twitter et a vu une publication qui l’a consumée de terreur.
Quelqu’un avait tweeté publiquement une vidéo explicite de ce qui semblait être ses rapports sexuels (https://metro.co.uk/lifestyle/sex/).
N’ayant aucun souvenir d’avoir été filmée dans cette situation, elle s’est sentie confuse, frappée de peur et d’effroi.
« Cette panique m’a envahie », raconte Kate. « Je n’arrivais pas à penser clairement à ce moment-là. Je me souviens avoir eu l’impression que cette vidéo allait se propager partout. Votre esprit s’emballe complètement : « Mais quand est-ce que c’était, avec qui est-ce que j’ai des relations sexuelles, je ne m’en souviens pas, je ne pense pas avoir consenti à cela. »
« C’est vraiment, vraiment effrayant à regarder, parce que vous vous dites : « Oh mon Dieu, c’est moi, je suis dans une vidéo porno et tout le monde va voir – mes employeurs, ma grand-mère, mes amis. » « On se sent vulnérable, parce que notre corps est là, mais on n’a aucun souvenir d’avoir été filmé. »
Après son choc initial, Kate a commencé à réaliser quelque chose d’encore plus troublant : si c’était son visage dans la vidéo, le corps auquel il était attaché n’était pas le sien. La militante de 30 ans était devenue une victime de deepfake pornographie.
En apparence, la technologie deepfake – une sorte d’IA – peut être utilisée pour profiter de manière fantaisiste des tendances des médias sociaux, car des images ou des vidéos originales sont fusionnées avec autre chose pour créer une réalité différente. Elle a été utilisée pour créer des clips viraux, comme le message alternatif de Noël de la reine sur Channel 4 en 2020, qui a vu notre défunte monarque effectuer une danse sur TikTok, et même le filtre de changement de genre de SnapChat.
Mais plus sinistre encore, cette technologie a également été utilisée pour fabriquer de fausses nouvelles et des fraudes financières, et même de la pornographie infantile, de la vengeance et du deepfake.
Les auteurs prennent une image ou une vidéo d’un contenu pour adultes déjà existant et la transforment avec le visage de quelqu’un d’autre – ce qui signifie qu’ils ne créent pas seulement synthétiquement du matériel explicite et non consensuel d’une personne, mais qu’ils volent également des images de travailleuses du sexe. Selon les statistiques de l’université Queen Mary de Londres, 96 % de ces deepfakes sont de nature pornographique et, sans surprise, presque tous concernent des femmes (https://metro.co.uk/tag/women/).
« Des recherches menées en 2018 par la société de détection de fraude Sensity AI ont prédit que ce nombre doublerait tous les six mois », a expliqué le mois dernier la journaliste Jennifer Savin, qui couvre cette tendance depuis environ quatre ans. « Quatre ans plus tard, cette prophétie s’est réalisée et même plus. Il y a plus de 57 millions de résultats pour « deepfake porn » sur Google uniquement [au moment de la rédaction de cet article]. L’intérêt pour les recherches a augmenté de 31 % au cours de l’année écoulée et ne montre aucun signe de ralentissement. »
Kate pense qu’elle a été ciblée en raison du travail incroyable qu’elle avait accompli deux ans plus tôt avec son mouvement #NotYourPorn, qui a connu un énorme succès et qui a permis de supprimer 10 millions de vidéos pornographiques non consensuelles et infantiles sur la plateforme pour adultes Pornhub.
« Le postulat était le suivant : « Kate Isaacs, militante anti-pornographie : la vraie raison pour laquelle elle veut se débarrasser de ce contenu, c’est parce qu’elle apparaît elle-même dans une vidéo et qu’elle essaie de s’en débarrasser, mais elle le regrette. » C’était vraiment effrayant et horrible », dit-elle.
« C’est vraiment horrible, parce que je m’attendais à être ciblée – j’avais vraiment peur avant de me lancer dans la campagne, et avant de passer à la télévision pour la première fois, j’ai fouillé dans mon téléphone et supprimé toutes les photos qui auraient pu être utilisées contre moi. Mais je ne pense pas que je me sois préparée à être transformée en vidéo porno, car en ce qui me concerne, une vidéo comme celle-là n’existait pas nécessairement. Toutes ces choses qu’on vous dit de ne pas faire – qui sont une forme totale de blâme de la victime – n’ont plus d’importance, car n’importe qui peut créer une de ces images ou vidéos.
« J’ai compris que ce n’était pas moi quand j’ai regardé la vidéo plus attentivement, mais cela n’a pas atténué le choc initial et l’adr énaline – et même si je savais que ce n’était pas mon corps, personne d’autre ne le savait. C’était comme si les créateurs avaient décidé de me retirer complètement mon pouvoir, et je n’aurais rien pu faire pour empêcher cela. Ils ont juste utilisé cela comme une arme. »
Ce qui est encore plus choquant, c’est que les auteurs ont ensuite trouvé les adresses professionnelle et personnelle de Kate et les ont publiées en ligne.
Elle ajoute : « J’ai reçu des menaces comme s’ils allaient me suivre chez moi pendant qu’il faisait sombre, et qu’ils allaient me violer, filmer la scène et la mettre en ligne.
« C’était une attaque contre moi qui correspondait à mon crime : « Tu as pris quelque chose que nous aimons, ou tu as perturbé un système dont nous avons profité et dont nous avons bénéficié, alors nous allons te punir d’une manière qui reflète cela – nous allons te mettre dans une vidéo porno, que ce soit par deepfake ou en te violant physiquement. »
« Je me sentais incroyablement vulnérable et je ne voulais pas sortir – je demandais à mon partenaire de l’époque de venir me chercher à la salle de sport parce que je ne voulais pas marcher cinq minutes pour rentrer chez moi dans le noir. Cette menace contre toi est tout simplement terrifiante. C’est l’une des choses les plus effrayantes que j’aie jamais vécues. »
Aujourd’hui, dans un nouveau documentaire de la BBC3 intitulé Deepfake Porn : Could You Be Next ?, la journaliste Jess Davies se penche en profondeur sur la facilité avec laquelle il est possible de créer ce type de contenu, parle à certaines des femmes, comme Kate, qui ont été touchées – et interviewe les hommes responsables de la création de ces fausses images et vidéos.
Jess, une ancienne mannequin glamour, a été victime du vol de ses images et de leur revente sur des forums de prostitution en ligne. Mais après avoir surveillé où se trouvait son contenu sur le Web et avoir également recherché celui de ses amis dans le secteur, elle a remarqué que cette nouvelle tendance gagnait en popularité.
« J’ai vu des fils de discussion apparaître demandant des deepfakes et des deep nudes – où, en utilisant une technologie en ligne qui ne fonctionne pas sur les hommes pour le moment, vous pouvez retirer les vêtements d’une femme et créer une image nue d’elle en un clic », explique-t-elle. « C’était un autre abus sexuel visuel basé sur l’image. Au moins, je savais que mes images existaient – avec le deepfaking, vous n’avez même pas votre mot à dire. » Ils font du porno de toute façon, et on ne peut rien y faire. »
Je ne pense pas vraiment que le consentement soit nécessaire – c’est un fantasme, ce n’est pas réel
Dans le documentaire, Jess, 29 ans, parle à deux des auteurs qui créent et facilitent ce contenu graphique – « Gorkem », qui crée les images et les vidéos pour les clients, et « MrDeepFakes », dont le site Web du même nom attire 13 millions de visiteurs chaque mois et compte près de 250 000 membres.
« Je peux comprendre que certaines femmes puissent en souffrir psychologiquement, mais d’un autre côté, elles peuvent simplement dire : « Ce n’est pas moi, c’est un faux, je ne peux pas en subir les conséquences », explique Gorkem. « Je pense qu’elles devraient simplement le reconnaître et continuer leur journée. »
Il ajoute sans ménagement que s’il y avait une chance qu’on puisse le retrouver en ligne, il arrêterait et « se trouverait un nouveau passe-temps ».
M. Deepfakes est d’accord : « Je pense que tant que vous n’essayez pas de faire passer cela pour quelque chose de réel, cela devrait vraiment avoir de l’importance, car c’est essentiellement faux. Je ne pense pas vraiment que le consentement soit nécessaire – c’est un fantasme, ce n’est pas réel. »
Cependant, Kate n’est pas d’accord.
« C’est probablement l’une des choses les plus ridicules que j’aie jamais entendues », dit-elle. « Je ne sais pas dans quel monde il vit, s’il est capable de créer ces choses et de penser que cela n’a aucun impact sur la réputation de quelqu’un. »
« C’est incroyablement frustrant parce que j’ai l’impression qu’il y a définitivement une séparation étrange entre le « monde virtuel » et le « monde réel », et ce n’est plus là que nous vivons. Nous n’accédons pas à nos navigateurs Internet par ligne commutée – chaque élément de notre vie est intégré en ligne. »
« Malheureusement, nous vivons dans une société où les femmes sont souvent stigmatisées, et si les photos d’une femme nue sont divulguées ou si elle est filmée dans une position compromettante, elle peut perdre son emploi. Donc, prendre l’identité de quelqu’un et la transformer en quelque chose pour gagner de l’argent sans son consentement est toujours une violence sexuelle. C’est une façon de réduire les femmes à quelque chose de moins, de nous rendre inférieures aux hommes. »
En 2017, des deepfakes de célébrités ont commencé à apparaître dans des salles de discussion comme Reddit – où les utilisateurs pervertissaient des photos de tapis rouge ou des images de réseaux sociaux – et des stars comme Zendaya, Billie Eilish et Scarlett Johansson sont toujours populaires sur les sites Web explicites.
Mais dans un monde où nous sommes désormais habitués à publier des selfies ou des vidéos de face sur des applications comme Instagram et TikTok – ou même à participer à des réunions Zoom lorsque nous travaillons à domicile – la « femme ordinaire » est plus que jamais exposée au risque de deepfake.
La réalité choquante est que la technologie a progressé à un rythme si rapide que les gens peuvent désormais créer une image deepfake presque immédiatement. Et même s’ils ne savent pas comment s’y prendre, les forums regorgent de conseils pour s’y retrouver dans cette technologie.
Des applications facilement disponibles comme FaceMagic peuvent créer un deepfake en moins d’une minute – et dans son documentaire, Jess réalise un clip d’elle-même en environ huit secondes.
« Vous n’avez pas besoin d’un dossier entier d’angles différents, vous téléchargez simplement une photo et vous pouvez créer une vidéo porno deepfake en quelques secondes. Elles ne semblent peut-être pas très réalistes, mais elles suffisent quand même à ressentir la honte et l’humiliation », dit-elle. « C’est ce qui est vraiment effrayant, cette technologie est techniquement entre les mains de tous ceux qui ont un smartphone – FaceMagic est disponible sur l’App Store d’Apple pour les 12 ans et plus, donc si vous pouvez y accéder si vous êtes en sixième. »
Si les utilisateurs ne se sentent pas à l’aise avec l’utilisation du logiciel, ils peuvent simplement contacter des personnes, comme Gorkem, pour une demande personnalisée.
Jess évoque également l’exemple de Dina, qui a découvert que des images graphiques et truquées d’elle avaient été commandées par un ami proche au travail – un homme marié, qu’elle a décrit comme « quelqu’un que je respectais vraiment » et « un type si gentil et bon ».
« Dans la société, nous aimons penser que les hommes qui font ce genre de choses sont dans le sous-sol de leur mère, des cinglés qui n’ont pas de vie et sont très isolés. On a l’impression qu’ils ne sont que des incels », explique Jess. « Mais en fait, ce sont des hommes normaux, des pères de famille, qui publient des images de leurs filles, épouses, sœurs ou tantes, puis ils vont s’asseoir à table avec elles ou sortent avec elles. Pour moi, c’est ce qui est vraiment choquant. »
Kate ajoute : « En travaillant sur la campagne et en examinant ces différents types de sites pornographiques grand public, j’estime qu’environ 60 % du contenu semble non consensuel. Qu’il s’agisse d’une femme apparaissant comme une fille en uniforme scolaire ou de fantasmes de viol, l’industrie entière a tellement de catégories qui fantasment sur des femmes obligées à faire quelque chose qu’elles n’ont pas accepté à des degrés divers, et le deepfaking n’est qu’une autre manifestation de cela.
« Si le collègue de Dina pensait qu’il était capable d’avoir des relations sexuelles avec elle, il n’aurait probablement pas demandé la commission – mais parce qu’il voulait fantasmer sur elle de la manière la plus réelle possible, il a pu le faire sans son consentement. Et comme il n’existe pas de loi réelle à ce sujet, c’est un moyen parfaitement légal de le faire. »
C’est parce qu’aucune loi britannique ne fait directement référence à la pratique du deepfaking – quelque chose décrit comme une « zone grise ».
Alors, selon Jess et Kate, que peut-on faire pour arrêter les auteurs ?
« Lorsque nous avons parlé à Gorkem et à Mr DeepFakes, ils ont dit que si c’était illégal, ils respecteraient la loi, ce qui aurait un effet dissuasif », explique Jess. « Mais le projet de loi sur la sécurité en ligne est déjà obsolète – il essaie d’être adopté par le Parlement depuis environ quatre ans maintenant et il parle beaucoup de Facebook, que les jeunes n’utilisent plus. Essayer de suivre la technologie et la vitesse à laquelle elle se développe est tout simplement impossible.
« Bien que cela aiderait les victimes de savoir qu’elles peuvent signaler leurs cas, et que, espérons-le, la police puisse ensuite obtenir plus de fonds pour s’attaquer aux auteurs, je pense que c’est définitivement un problème de société. »
« Des millions de personnes accèdent à ce contenu et participent activement à ces forums, ajoutent des commentaires très explicites et sexuels ou placent des personnes qu’elles connaissent dans des scènes vraiment dérangeantes et encouragent ensuite les autres à envoyer ces images aux filles sur Instagram. Ils veulent activement causer de la détresse et du mal. Pourquoi y a-t-il autant d’hommes qui pensent qu’il est acceptable de traiter et de considérer les femmes comme des objets ? »
Kate poursuit : « Si nous voulons aller de l’avant et protéger les gens de ce type de crime, nous devons examiner le système législatif de notre pays, car les systèmes que nous avons mis en place pour la technologie ne sont tout simplement pas adaptés », dit-elle. « Cela ne peut pas prendre cinq ans pour faire un examen et ensuite agir en conséquence, car ce sera obsolète. »
« Du point de vue d’un militant et en tant que personne qui a vécu cela en tant que victime, nous devons réglementer ces industries. Le fait qu’il existe des applications disponibles qui sont tout à fait légales, ou que des sites Web pornographiques puissent publier, consulter ou partager votre contenu sans votre consentement est un problème majeur. Le problème, c’est que nous, les Britanniques, sommes tellement prudes que nous ne voulons pas avoir ce genre de conversation au Parlement, mais se cacher la tête dans le sable ne fonctionne évidemment pas. Nous devons réformer le type d’attitude que nous avons envers ce type de sites Web et envers la violence sexuelle et le contenu sexuel en ligne. »
« Il s’agit principalement d’un crime commis par un homme sur une femme, et il est utilisé comme une forme de violence sexuelle », ajoute-t-elle. « Ce n’est pas un viol physique, mais cela ne veut pas dire que ce n’est pas une forme de violence sexuelle, que ce n’est pas dommageable simplement parce que cela existe sur le Web. »
Malgré les menaces horribles auxquelles elle a été confrontée, Kate a décidé de poursuivre sa brillante campagne. Jess refuse également de se taire sur le sujet, même si elle a également fait l’objet de commentaires similaires en ligne.
« Les menaces vous accompagnent et elles m’ont fait craindre pour ma sécurité », dit-elle. « Je vérifie mon environnement, je verrouille ma porte dès que je monte dans ma voiture, ce genre de choses. Cela m’a parfois fait penser que je ne voulais plus en parler.
« Cependant, même si je ne veux évidemment pas être ciblée, le documentaire donnera, je l’espère, à davantage de femmes la confiance nécessaire pour partager leur expérience, car ce sont malheureusement les victimes qui doivent mettre leur visage sur la table pour être écoutées par le gouvernement. »