Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4535

Incidents associés

Incident 9048 Rapports
Kate Isaacs, Advocate Against Image-Based Abuse, Reports Being Deepfaked

Loading...
Le porno deepfake détruit des vies – mais il ne faut que 8 secondes pour créer une image
dailymail.co.uk · 2022

En parcourant son téléphone, Kate Isaacs a ouvert Twitter et a repéré un message qui l'a consumée de terreur.

Quelqu'un avait tweeté publiquement une vidéo explicite de ce qui semblait être ses rapports sexuels.

« Cette panique m'a envahie », a déclaré Kate à Metro.co.uk. « Je n'arrivais pas à penser clairement à ce moment-là.

« Votre esprit s'emballe complètement : « Mais quand est-ce que c'était, avec qui est-ce que j'ai des rapports sexuels, je ne m'en souviens pas, je ne pense pas avoir consenti à cela. »

« C'est vraiment très effrayant à regarder, parce qu'on se dit : "Oh mon Dieu, c'est moi, je suis dans une vidéo porno et tout le monde va la voir : mes employeurs, ma grand-mère, mes amis". »

Kate Isaacs a raconté à Metro.co.uk comment elle a été "paniquée" lorsqu'elle a découvert qu'elle était victime de pornographie deepfake

« On se sent vulnérable, parce que son corps est là, mais on n'a aucun souvenir d'avoir été filmée. »

Après son choc initial, Kate a réalisé quelque chose d'encore plus troublant : même si c'était son visage dans la vidéo, le corps qui y était attaché n'était pas le sien.

La militante de 30 ans était devenue une victime de ce qu'on appelle la pornographie deepfake, le terme désignant des vidéos pornographiques réalisées à partir d'images volées transformées en séquences pornographiques à l'aide d'un logiciel.

Kate, 30 ans, pense avoir été ciblée en raison de sa campagne #NotYourPorn de 2020, qui a vu la suppression de 10 millions de vidéos non consensuelles et de pornographie infantile sur Pornhub.

La journaliste Jess Davies présente le nouveau documentaire de la BBC3 Deepfake Porn : Could You Be Next ? où elle a appris qu'il ne faut que quelques secondes pour créer un deepfake.

« C'est tellement horrible, parce que je m'attendais à être ciblée, et avant de passer à la télévision pour la première fois, j'ai fouillé dans mon téléphone et supprimé toutes les photos qui auraient pu être utilisées contre moi », explique-t-elle.

« Mais je ne pense pas que je me sois préparée à être transformée en vidéo porno. »

Ce qui est encore plus choquant, les auteurs ont également « doxé » Kate, en publiant ses adresses professionnelle et personnelle en ligne.

Elle ajoute : « J'ai reçu des menaces comme s'ils allaient me suivre chez moi pendant qu'il faisait sombre, et qu'ils allaient me violer, filmer et télécharger le tout sur Internet. »

Kate partage son expérience dans le nouveau documentaire de la BBC3 intitulé Deepfake Porn: Could You Be Next?, animé par la journaliste Jess Davies, qui examine à quel point il est facile de créer ce type de contenu.

Dans le documentaire, Jess, 29 ans, s'entretient avec les créateurs de deepfakes, « Gorkem », qui réalise des images et des vidéos pour ses clients, et « MrDeepFakes », dont le site Web du même nom attire 13 millions de visiteurs chaque mois et compte près de 250 000 membres.

Gorkem déclare : « Je peux comprendre que certaines femmes puissent en souffrir psychologiquement, mais d'un autre côté, elles peuvent simplement dire : "Ce n'est pas moi, c'est un faux, je ne peux pas en subir les conséquences".

"Je pense qu'elles devraient simplement le reconnaître et continuer leur journée".

Mr Deepfakes est d'accord : « Je pense que tant que vous n'essayez pas de faire passer cela pour quelque chose de réel, cela ne devrait pas vraiment avoir d'importance car c'est essentiellement un faux.

« Je ne pense pas vraiment que le consentement soit nécessaire – c'est un fantasme, ce n'est pas réel. »

Kate, victime de deepfake, n'est pas d'accord. « Je ne sais pas dans quel monde il vit, s'il est capable de créer ces choses et de penser que cela n'a aucun impact sur la réputation de quelqu'un », dit-elle.

Dans le cadre de ses recherches, Jess a également découvert que des applications facilement disponibles telles que FaceMagic – qui est interdite aux moins de 12 ans – peuvent créer un deepfake en moins d'une minute. Dans le documentaire, elle réalise un clip d'elle-même en huit secondes environ.

« Il suffit de télécharger une photo et de créer une vidéo porno deepfake en quelques secondes », explique-t-elle.

« Elles ne semblent peut-être pas très réalistes, mais elles suffisent quand même à ressentir la honte et l'humiliation. »

Visitez Metro.co.uk pour lire la version complète de cet article 

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd