Incidents associés
Les fans de Taylor Swift ont récemment été horrifiés après que des images pornographiques truquées de la chanteuse ont circulé en ligne, ce qui a incité un groupe de sénateurs américains à présenter un projet de loi visant à criminaliser la pratique du partage d'images sexualisées générées par l'intelligence artificielle (IA) sans consentement.
Cela survient alors que les femmes de tous horizons s'inquiètent largement des avancées rapides de l'IA, dans un monde où les nouvelles lois n'ont pas encore rattrapé leur retard. Le 27 octobre, un porte-parole du gouvernement britannique a confirmé que le nouveau projet de loi sur la sécurité en ligne (Online Safety Bill) (https://www.mirror.co.uk/news/politics/new-duties-social-media-firms-28604494) reconnaissait que le deepfake porno était dangereux, l'envoi ou le partage de telles images étant considéré comme une infraction pénale.
En vertu de ce projet de loi tant attendu, ceux qui partagent des deepfakes explicites pourraient être condamnés à six mois de prison. Il reste toutefois notoirement difficile de déterminer l'identité réelle des personnes qui commettent ce délit, ce qui laisse de nombreuses victimes traumatisées dans un état d'incertitude.
Lors d'une interview avec le Mail Online, Kate Isaacs, 30 ans, s'est souvenue de la façon dont elle s'est sentie « bouleversée » lorsqu'elle est tombée sur des images sexuellement explicites d'elle-même alors qu'elle parcourait X, anciennement connu sous le nom de Twitter. Les images en question montraient son visage superposé sur le corps d'une autre femme, qui accomplissait un acte sexuel. Kate, qui a fondé la campagne #NotYourPorn, s'est souvenue : « C'était tellement convaincant qu'il m'a même fallu quelques minutes pour réaliser que ce n'était pas moi. Tous ceux qui me connaissaient auraient pensé la même chose. C'était dévastateur. Je me suis sentie violée, et tout le monde pouvait le voir. »
La chercheuse professionnelle n'a jamais su qui avait créé la vidéo, mais pense qu'elle a été ciblée parce qu'elle s'était déjà exprimée contre la montée de la « pornographie non consensuelle ». La vidéo, qui a été partagée en 2020, contenait des images du visage de Kate prises sur Internet sans aucun rapport.
Une autre femme, désignée par le pseudonyme Courtney, s'est confiée au Mail Online sur son horreur après qu'un inconnu ait transformé son selfie ordinaire devant un miroir en une photo de nu truquée. Cette personne inconnue, qui a envoyé la photo à Courtney sur Instagram avec un emoji souriant, avait utilisé l'un des nombreux sites Web sinistres qui « déshabillent virtuellement » les individus sur n'importe quelle photo.
Courtney a déclaré à la publication : « Je n'avais pas eu de nouvelles de cette personne depuis deux ans et je me suis réveillée un matin, vendredi dernier. Je me suis réveillée à 7 heures du matin pour aller à l'université, mais j'ai reçu cette image extrêmement explicite qui n'était certainement pas réelle. Elle avait été prise sur mon Instagram et modifiée avec l'IA. J'étais sous le choc. Il n'est pas possible que cela soit arrivé comme ça. Mais j'ai réalisé la gravité de la situation plus tard dans la journée... à qui ils avaient pu envoyer ça. » L'aspirante assistante sociale, qui a une vingtaine d'années, a bloqué le compte et retiré toutes les photos d'elle des réseaux sociaux. Elle vit désormais dans un état de peur constante d'une violation répétée.
Lors d'une interview avec le site i,, la politicienne nord-irlandaise Cara Hunter a évoqué son calvaire après que de fausses images pornographiques aient été tournées d'elle pendant sa campagne électorale en avril 2022. Elle a pris connaissance de la vidéo, dans laquelle elle semblait se livrer à un acte sexuel oral, alors qu'elle assistait au 90e anniversaire de sa grand-mère. Cara, 26 ans, se souvient : « J'étais entourée de ma famille et mon téléphone ne faisait que ding, ding, ding. Et au cours des deux semaines suivantes, cela a continué comme ça. »
La vidéo a été partagée sur diverses plateformes de médias sociaux, et Cara a même été victime de harcèlement dans la rue à cause de cela. Elle a déclaré : « Deux jours après que la vidéo a commencé à circuler, un homme m'a arrêtée dans la rue alors que je marchais seule et m'a demandé une fellation. Il a montré la vidéo. C'était horrible, j'avais l'impression que tout le monde y croyait. Les gens riaient, se moquaient de moi et se moquaient de moi dans la rue. »
Bien que la police ait fait preuve de sympathie lorsqu'elle a signalé l'incident, elle a admis qu'elle ne pouvait pas faire grand-chose pour l'aider, car son « équipe cybernétique avait des pouvoirs très limités ». Un rapport publié en 2023 a révélé qu'il y avait eu une augmentation de 550 % du nombre de vidéos deepfake trouvées en ligne cette année-là par rapport à 2019. Le rapport, publié par homesecurityheroes.com, a révélé que 98 % de toutes les vidéos deepfake étaient de nature pornographique, tandis que 99 % des personnes ciblées étaient des femmes.
Si vous avez été victime d'agression sexuelle, vous pouvez accéder à de l'aide et à des ressources via www.rapecrisis.org.uk ou en appelant la ligne d'assistance téléphonique nationale au 0808 802 9999