Incidents associés

En parcourant son téléphone, Kate Isaacs a ouvert Twitter et a repéré un message qui l'a consumée de terreur.
Quelqu'un avait tweeté publiquement une vidéo explicite de ce qui semblait être ses rapports sexuels.
« Cette panique m'a envahie », a déclaré Kate à Metro.co.uk. « Je n'arrivais pas à penser clairement à ce moment-là.
« Votre esprit s'emballe complètement : « Mais quand est-ce que c'était, avec qui est-ce que j'ai des rapports sexuels, je ne m'en souviens pas, je ne pense pas avoir consenti à cela. »
« C'est vraiment très effrayant à regarder, parce qu'on se dit : "Oh mon Dieu, c'est moi, je suis dans une vidéo porno et tout le monde va la voir : mes employeurs, ma grand-mère, mes amis". »
Kate Isaacs a raconté à Metro.co.uk comment elle a été "paniquée" lorsqu'elle a découvert qu'elle était victime de pornographie deepfake
« On se sent vulnérable, parce que son corps est là, mais on n'a aucun souvenir d'avoir été filmée. »
Après son choc initial, Kate a réalisé quelque chose d'encore plus troublant : même si c'était son visage dans la vidéo, le corps qui y était attaché n'était pas le sien.
La militante de 30 ans était devenue une victime de ce qu'on appelle la pornographie deepfake, le terme désignant des vidéos pornographiques réalisées à partir d'images volées transformées en séquences pornographiques à l'aide d'un logiciel.
Kate, 30 ans, pense avoir été ciblée en raison de sa campagne #NotYourPorn de 2020, qui a vu la suppression de 10 millions de vidéos non consensuelles et de pornographie infantile sur Pornhub.
La journaliste Jess Davies présente le nouveau documentaire de la BBC3 Deepfake Porn : Could You Be Next ? où elle a appris qu'il ne faut que quelques secondes pour créer un deepfake.
« C'est tellement horrible, parce que je m'attendais à être ciblée, et avant de passer à la télévision pour la première fois, j'ai fouillé dans mon téléphone et supprimé toutes les photos qui auraient pu être utilisées contre moi », explique-t-elle.
« Mais je ne pense pas que je me sois préparée à être transformée en vidéo porno. »
Ce qui est encore plus choquant, les auteurs ont également « doxé » Kate, en publiant ses adresses professionnelle et personnelle en ligne.
Elle ajoute : « J'ai reçu des menaces comme s'ils allaient me suivre chez moi pendant qu'il faisait sombre, et qu'ils allaient me violer, filmer et télécharger le tout sur Internet. »
Kate partage son expérience dans le nouveau documentaire de la BBC3 intitulé Deepfake Porn: Could You Be Next?, animé par la journaliste Jess Davies, qui examine à quel point il est facile de créer ce type de contenu.
Dans le documentaire, Jess, 29 ans, s'entretient avec les créateurs de deepfakes, « Gorkem », qui réalise des images et des vidéos pour ses clients, et « MrDeepFakes », dont le site Web du même nom attire 13 millions de visiteurs chaque mois et compte près de 250 000 membres.
Gorkem déclare : « Je peux comprendre que certaines femmes puissent en souffrir psychologiquement, mais d'un autre côté, elles peuvent simplement dire : "Ce n'est pas moi, c'est un faux, je ne peux pas en subir les conséquences".
"Je pense qu'elles devraient simplement le reconnaître et continuer leur journée".
Mr Deepfakes est d'accord : « Je pense que tant que vous n'essayez pas de faire passer cela pour quelque chose de réel, cela ne devrait pas vraiment avoir d'importance car c'est essentiellement un faux.
« Je ne pense pas vraiment que le consentement soit nécessaire – c'est un fantasme, ce n'est pas réel. »
Kate, victime de deepfake, n'est pas d'accord. « Je ne sais pas dans quel monde il vit, s'il est capable de créer ces choses et de penser que cela n'a aucun impact sur la réputation de quelqu'un », dit-elle.
Dans le cadre de ses recherches, Jess a également découvert que des applications facilement disponibles telles que FaceMagic – qui est interdite aux moins de 12 ans – peuvent créer un deepfake en moins d'une minute. Dans le documentaire, elle réalise un clip d'elle-même en huit secondes environ.
« Il suffit de télécharger une photo et de créer une vidéo porno deepfake en quelques secondes », explique-t-elle.
« Elles ne semblent peut-être pas très réalistes, mais elles suffisent quand même à ressentir la honte et l'humiliation. »
Visitez Metro.co.uk pour lire la version complète de cet article