Incidents associés

La fureur a éclaté à propos des images pornographiques deepfake de Taylor Swift qui ont largement circulé sur les réseaux sociaux ces derniers jours - mais le problème traumatise également des dizaines de femmes réelles au Royaume-Uni.
La nouvelle technologie IA a permis aux trolls misogynes de voler plus facilement des photos de vraies femmes avant de transplanter certaines de leurs caractéristiques - comme leur visage - sur des images pornographiques avant de les partager en ligne sans leur consentement.
L'essor du porno deepfake est largement reconnu comme un problème croissant, mais la lenteur des progrès dans la formulation de nouvelles lois pour y faire face signifie que les victimes se retrouvent souvent sans aucun recours juridique.
La chercheuse Kate Isaacs faisait défiler X lorsqu'une vidéo est apparue dans ses notifications. Lorsqu'elle a cliqué sur lecture, elle a réalisé que la séquence montrait une femme en plein acte sexuel, son visage superposé sur le corps de la femme.
« Je me souviens avoir eu chaud, avoir eu cette vague qui m'a submergée. Mon estomac s'est noué. Je n'arrivais même pas à réfléchir clairement. Je me disais : "Où était-ce ? Est-ce que quelqu'un a filmé ça sans que je le sache ? Pourquoi est-ce que je ne m'en souviens pas ? Qui est cet homme ?" », a-t-elle déclaré au Mail.
La chercheuse Kate Isaacs faisait défiler X lorsqu'une vidéo est apparue dans ses notifications, la montrant dans une vidéo pornographique deepfake.
Nassia Matsa, rédactrice technique et mannequin, voyageait dans le métro lorsqu'elle a remarqué une publicité pour une compagnie d'assurance qui avait utilisé son visage sans autorisation.
« C'était tellement convaincant qu'il m'a même fallu quelques minutes pour réaliser que ce n'était pas moi. Tous ceux qui me connaissaient penseraient la même chose. C'était dévastateur. Je me suis sentie violée, et tout le monde pouvait le voir. »
La trentenaire, fondatrice de la campagne #NotYourPorn, n'a jamais trouvé qui avait réalisé la vidéo pornographique incriminée, mais pense qu'elle a été spécifiquement ciblée parce qu'elle avait dénoncé la montée de la « pornographie non consensuelle » dans le passé.
En vertu du projet de loi sur la sécurité en ligne, qui est désormais une loi, ceux qui partagent des deepfakes pornographiques peuvent être emprisonnés jusqu'à six mois.
Jusqu'à présent, pour que des poursuites pénales soient engagées, les autorités devaient être en mesure de prouver que les deepfakes étaient motivés par la malveillance, ce qui est souvent difficile lorsqu'ils sont souvent rejetés comme des farces.
Il reste cependant incroyablement difficile de déterminer la véritable identité de ceux qui partagent de nombreux deepfakes.
Les deepfakes les plus réalistes sont obtenus à partir d'images animées, ce qui signifie qu'une vidéo innocente publiée sur votre compte Instagram, d'un mariage familial par exemple, serait idéale.
La fausse vidéo pornographique de Mme Isaacs, apparue en 2020, avait été réalisée à partir d'images totalement innocentes prises sur Internet.
« C'est tout ce qu'il faut maintenant », a-t-elle déclaré. « Cela fait de chaque femme qui a une image d'elle-même en ligne une victime potentielle ; c'est à peu près le cas de nous toutes, de nos jours. »
En vertu du nouveau projet de loi sur la sécurité en ligne, qui est désormais une loi, ceux qui partagent des deepfakes pornographiques peuvent être emprisonnés jusqu'à six mois.
Jusqu'à présent, pour que des poursuites pénales soient engagées, les autorités devaient être en mesure de prouver que les deepfakes étaient motivés par la malveillance, ce qui est souvent difficile lorsqu'ils sont souvent rejetés comme des farces.
Cependant, il reste incroyablement difficile de déterminer la véritable identité de ceux qui partagent de nombreux deepfakes.
Cara Hunter, une femme politique nord-irlandaise, s'est fait tourner une fausse vidéo pornographique alors qu'elle se présentait aux élections d'avril 2022.
La jeune femme de 26 ans était à la fête du 90e anniversaire de sa grand-mère lorsqu'elle s'est rendu compte que des images la montrant en train de pratiquer le sexe oral avaient commencé à circuler en ligne.
« J'étais entourée de ma famille et mon téléphone ne faisait que ding, ding, ding. Et au cours des deux semaines suivantes, cela a continué comme ça », a-t-elle raconté à i.
Cara Hunter, une politicienne nord-irlandaise, s'est fait faire une fausse vidéo pornographique alors qu'elle se présentait aux élections en avril 2022
Une femme a téléchargé un selfie miroir sur son compte Instagram avant d'être contactée par un troll quelques heures plus tard
Le message la narguait avec une fausse version nue éditée par l'IA du selfie qu'elle avait posté sur son compte
Mme Hunter, qui a été élue députée SDLP de l'Assemblée législative d'Irlande du Nord pour l'est de Derry, ne sait toujours pas si la vidéo était un deepfake ou utilisait une actrice porno qui lui ressemblait beaucoup.
Elle a été partagée des dizaines de milliers de fois en ligne et lui a valu d'être harcelée dans la rue.
« Deux jours après que la vidéo a commencé à circuler, un homme m'a arrêtée dans la rue alors que je marchais seule et m'a demandé une fellation », a-t-elle déclaré.
« Il a fait apparaître la vidéo. C'était horrible, j'avais l'impression que tout le monde y croyait. Les gens riaient, se moquaient de moi et se moquaient de moi dans la rue. »
Dans un autre cas choquant l'année dernière, une femme a été horrifiée après qu'un inconnu a transformé son selfie dans le miroir en une photo de nu deepfake générée par l'IA et l'a ensuite narguée avec.
Courtney s'est réveillée et a découvert qu'un inconnu lui avait envoyé une photo d'elle nue sur Instagram, accompagnée d'un emoji souriant.
Choquée, l'aspirante assistante sociale savait que la photo n'était pas réelle.
La personne avait fait une capture d'écran d'un selfie qu'elle avait publié sur son compte et l'avait téléchargé sur l'un des nombreux sites Web de génération de nu deepfake qui « déshabilleront virtuellement » n'importe quelle personne sur n'importe quelle photo.
Courtney, qui a une vingtaine d'années, a bloqué le compte et a maintenant supprimé toutes les photos d'elle de ses réseaux sociaux de peur que cela ne se reproduise.
Mais elle est restée dans un état d'anxiété constant, se demandant si la photo avait été envoyée à quelqu'un d'autre - à ses abonnés, à ses amis, à sa famille.
Courtney - ce n'est pas son vrai nom - a déclaré à MailOnline : « Je n'avais pas eu de nouvelles de cette personne depuis deux ans et je me suis réveillée un matin, vendredi dernier. Je me suis réveillée à 7 heures du matin pour aller à l'université, mais j'ai reçu cette image extrêmement graphique qui n'était certainement pas réelle.
« Elle avait été prise sur mon Instagram et éditée avec IA.
« J'étais sous le choc. Il est impossible que cela se soit produit comme ça. Mais j'ai réalisé la gravité de la situation plus tard dans la journée... à qui ils avaient pu l'envoyer. »
Taylor Swift - vue avec son petit ami Travis Kelce - est peut-être la victime la plus connue du deepfake porn
X a désormais bloqué les utilisateurs qui ne pouvaient pas rechercher le nom de la star
Les vidéos pornographiques ne sont pas la seule utilisation des images de femmes volées par l'IA.
Nassia Matsa, rédactrice technique et mannequin, voyageait dans le métro lorsqu'elle a remarqué une publicité pour une compagnie d'assurance sur laquelle figurait un mannequin dont le visage ressemblait étrangement au sien.
« Je n'ai jamais fait de séance photo pour cette compagnie d'assurance, mais je reconnais mes traits, et la pose, la coiffure et le maquillage sont similaires à une séance photo que j'ai faite en 2018 pour un magazine basé à Paris », a-t-elle écrit sur Dazed Digital.
Quelques mois plus tard, elle a vu une publicité pour la même compagnie d'assurance sur laquelle figuraient les traits déformés du visage d'une de ses amies.
Elle continue : « Après quelques recherches, j'ai lentement réalisé que nous avions été transformés par l'IA sans notre permission ; nos visages et nos corps étaient devenus des poupées numériques pour promouvoir un projet auquel nous n'avions pas participé.
« Et pour couronner le tout, je ne peux même pas le prouver ni faire quoi que ce soit à ce sujet, car la réglementation autour de l'IA est une zone grise. Après tout, à qui appartient vraiment mon visage ? »
L'année dernière, il est apparu que l'activité sur les forums dédiés au porno deep fake de célébrités a presque doublé en un an à mesure que l'IA sophistiquée devient largement accessible au public.
Mais les femmes ordinaires sont également régulièrement ciblées, avec des sites remplis de fanfaronnades d'utilisateurs affirmant que leur technologie « aide à déshabiller n'importe qui », ainsi que de guides sur la façon de créer du contenu sexuel, y compris des conseils sur le type d'images à utiliser.