Incidents associés

Une femme de 30 ans a déclaré que son estomac s'était « noué » lorsqu'elle a vu une vidéo deepfake porn montrant son visage.
Kate Isaacs a vu la vidéo pour la première fois en parcourant Twitter et s'est rappelée avoir eu « chaud » lorsqu'elle a réalisé que la femme dans la vidéo lui ressemblait.
Elle a commencé à se poser de nombreuses questions, notamment où la vidéo avait été filmée, si quelqu'un l'avait filmée sans son consentement et qui avait pu publier la vidéo.
En raison de son anxiété, elle n'a pas réalisé au début que la vidéo n'était pas la sienne, mais que son visage avait été superposé sur le corps d'une star du porno grâce à un logiciel de deepfake, qui manipule numériquement les images, créant des canulars visuels, audio et vidéo.
Mme Isaacs a déclaré que la vidéo deepfake était « tellement convaincante » qu'il lui a fallu quelques minutes pour se rendre compte que ce n'était pas elle.
Elle a déclaré au Daily Mail : « Tous ceux qui me connaissent penseraient la même chose. C'était dévastateur. Je me suis sentie violée, et tout le monde pouvait le voir. »
La femme a déclaré qu'elle n'avait jamais découvert qui avait réalisé la vidéo, mais qu'elle pensait avoir été ciblée car elle avait déjà parlé de la montée de la « pornographie non consensuelle ».
L'activiste, qui est la fondatrice du groupe de campagne Not Your Porn, a déclaré que la fausse vidéo pornographique d'elle, apparue en 2020, avait été réalisée à partir d'images innocentes prises sur Internet.
Elle a déclaré : « C'est tout ce qu'il faut maintenant. Cela fait de chaque femme qui a une image d'elle-même en ligne une victime potentielle ; c'est à peu près le cas de nous toutes, de nos jours. »
Les deepfakes sont créés à l'aide d'un logiciel d'intelligence artificielle qui peut prendre une vidéo existante et remplacer le visage d'une personne par celui d'une autre personne, voire reproduire l'expression faciale.
Cette technologie a été utilisée pour créer des vidéos deepfakes légères de célébrités, mais son utilisation la plus courante est celle des vidéos sexuellement explicites.
À mesure que les logiciels deviennent plus sophistiqués, les experts préviennent que les deepfakes sont appelés à devenir un problème croissant.
Adam Dodge, fondateur d'EndTAB, un groupe qui propose des formations sur les abus liés à la technologie, a déclaré à CBS News (https://www.cbsnews.com/news/deepfake-porn-ai-technology/) : « La réalité est que la technologie continuera à proliférer, à se développer et à devenir aussi simple que d'appuyer sur un bouton.
« Et tant que cela se produira, les gens continueront sans aucun doute à utiliser cette technologie à mauvais escient pour nuire aux autres, principalement par le biais de violences sexuelles en ligne, de pornographie deepfake et de fausses images de nu. »
Le problème rencontré par Mme Isaacs est malheureusement assez courant, comme le montre l'exemple de Noelle Martin, une femme de Perth, en Australie.
La jeune femme de 28 ans a trouvé une pornographie deepfake d'elle-même il y a 10 ans lorsqu'elle a utilisé Google pour rechercher son nom.
Elle a déclaré qu'elle ne savait toujours pas qui avait créé les fausses images et qu'elle pensait que quelqu'un avait pris une photo publiée sur son réseau social
Malgré avoir contacté plusieurs sites Internet pour tenter de faire retirer les images, elle a été soit ignorée, soit a vu les fausses photos être retirées avant d'être à nouveau publiées en ligne.
Mme Martin a déclaré : « Vous ne pouvez pas gagner. C'est quelque chose qui sera toujours là. C'est comme si cela vous avait ruiné à jamais. »
En octobre 2022, Mme Isaacs s'est entretenue avec le Sunday People alors que des chiffres montraient que seulement 3 % des incidents de vengeance pornographie signalés à la police ont donné lieu à des accusations.
Le partage de photos ou de vidéos sexuelles privées d'une autre personne sans son consentement est devenu illégal en 2015 - mais sur les 23 672 plaintes déposées à la police à ce sujet depuis, seulement 846 ont donné lieu à une inculpation.
Mme Isaacs a déclaré : « La loi originale de 2015 était laxiste et signifie qu'il est difficile d'obtenir une condamnation. Il faut être capable de prouver une intention malveillante. De plus, personne ne connaît vraiment la loi. »
Dans certains cas, le « manque d'intérêt public » a été invoqué comme raison pour ne pas porter plainte, selon une demande d'accès à l'information adressée aux 43 forces de police britanniques. Et toutes n'ont pas répondu, la police métropolitaine faisant partie des 12 qui ont refusé.
Mme Isaacs a déclaré : « Je suis dégoûtée qu'ils disent que ce n'est pas dans l'intérêt public. C'est choquant et cela démontre clairement à quel point les droits des femmes et les abus sexuels basés sur l'image sont peu pris au sérieux. »
Natasha Saunders, 33 ans, mère de deux enfants et victime de violences conjugales, a déclaré : « C'est horrible. La loi n'est pas appliquée et elle n'est pas suffisante. Ce sont des crimes bien réels.
« Quand j'étais avec mon agresseur, il prenait des photos de moi. Quand il sortira de prison, il aura accès à ces images. Même après mon départ, j'ai reçu des menaces. Il a dit qu'il partagerait les images avec tous les contacts de mon répertoire. Il faut que la police soit mieux encadrée. »
L'ex-mari de Mme Saunders pourrait être libéré d'ici 2025, après avoir été condamné à 12 ans de prison en 2018 pour trois chefs d'accusation de viol et un chef d'agression sexuelle.
Vous pouvez retrouver cette histoire dans Mes favoris.Ou en naviguant vers l'icône utilisateur en haut à droite.