Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4524

Incidents associés

Incident 90317 Rapports
Northern Ireland MLA Cara Hunter Allegedly Targeted by Deepfake Pornography Ahead of May 2022 Assembly Election

Le monde du deep fake porn : comment des vidéos fabriquées sont utilisées pour nuire aux femmes
inews.co.uk · 2022

« C’était la chose la plus terrifiante que j’aie jamais vécue. Je ne voulais pas rentrer chez moi à pied ou être seule… en gros, il s’agissait de me faire taire », raconte la victime Kate Isaacs

Lorsque Kate Isaacs a vu la vidéo pour la première fois, elle était confuse. Elle montrait les corps d’acteurs pornographiques, mais le visage qu’elle regardait à l’écran était le sien. Son visage avait été ajouté numériquement au corps d’une autre personne. « Il m’a fallu quelques secondes pour réaliser que [le corps] n’était pas moi », dit-elle aujourd’hui, presque deux ans plus tard. « Je me souviens que mes joues étaient rouges et que je me disais : « Qui est cette personne ? Ai-je eu des relations sexuelles avec cette personne ? » »

C’était fin 2020 et Isaacs, de Londres, était sur un nuage. Elle avait participé à une campagne qui avait forcé Pornhub – l’un des sites Web les plus visités au monde – à supprimer les vidéos pornographiques qui étaient nuisibles, illégales ou non consensuelles. Sa contribution, à la tête du groupe Not Your Porn, a contribué à la suppression de millions de vidéos. Malheureusement, cette victoire a également fait d’elle une cible sur les réseaux sociaux.

« C’était une victoire pour les victimes d’abus sexuels basés sur l’image », dit-elle, se souvenant de la suppression. « Mais une petite minorité d’hommes sur Internet n’était pas d’accord. Et cela a fait de moi une cible. »

Bientôt, elle s’est retrouvée victime d’une attaque pernicieuse, implacable et organisée. « Les gens ont commencé à prendre mon visage sur des photos et à le modifier dans des images [pornographiques] et à les tweeter », dit-elle. « Ensuite, ils ont commencé à utiliser mes interviews dans les médias pour me mettre dans des vidéos deepfakes (https://inews.co.uk/culture/television/deepfake-newsnight-politician-interview-depicted-in-bbc-drama-is-a-real-threat-experts-warn-1816238?ico=in-line_link). Il y avait des tweets disant que je voulais me débarrasser du porno uniquement parce que j’avais une vidéo porno dont j’avais honte. Et cette histoire était tout à fait crédible pour beaucoup de gens. »

Bien que les vidéos soient numériques et partagées en ligne, Isaacs dit qu’elle en a ressenti les répercussions dans sa vie quotidienne hors ligne.

« C’était la chose la plus terrifiante que j’aie jamais vécue. « Je ne voulais pas rentrer chez moi à pied »(https://inews.co.uk/inews-lifestyle/violence-women-walking-home-me-too-1726725?ico=in-line_link) ou être seule. « C’était l’hiver, donc l’idée de rentrer chez moi à pied dans le noir était vraiment effrayante », dit-elle. « En fait, il s’agissait de me faire taire ».

Et ça a marché. À cause des vidéos, Isaacs a supprimé son compte Twitter et a senti son monde se rétrécir. « Être victime d’abus sexuel basé sur des images a des conséquences réelles dans la vie. Cela a des conséquences réelles. C’est effrayant, embarrassant et humiliant. »

La pornographie deepfake est un phénomène relativement nouveau, la technologie utilisée pour créer des vidéos convaincantes d’échange de visages étant devenue plus largement disponible au cours des cinq dernières années. Auparavant, elle était inaccessible au grand public et coûteuse à utiliser. Désormais, n’importe qui peut facilement télécharger une application gratuite ou bon marché et greffer numériquement un visage sur une vidéo. Parfois, cette technologie est utilisée pour le plaisir – et il existe même des utilisations thérapeutiques lorsqu’il s’agit de traiter des problèmes de santé mentale, de mettre en place des loisirs ou des scénarios virtuels – mais il n’est pas difficile de voir comment les deepfakes peuvent également être utilisés pour discréditer et saper les gens.

Lorsque vous pouvez créer rapidement et facilement une vidéo montrant une personne en train de dire ou de faire quelque chose qu’elle n’a jamais dit ou fait en réalité, le potentiel de préjudice est vaste. Récemment, l’émission de la BBC, The Capture, a montré comment cette technologie peut être utilisée pour discréditer des personnalités politiques en créant une image deepfake qui transmettra des messages aux médias ou apparaîtra à la télévision. La première série a également montré que des deepfakes CCTV étaient utilisés pour incriminer à tort quelqu’un pour un crime. Mais cette technologie peut également être utilisée pour nuire aux gens sous forme d’abus sexuel.

Sophie Maddocks, chercheuse en cyberdroits civiques et en éducation aux médias pour les jeunes à l’Université de Pennsylvanie, estime que les inquiétudes se sont principalement concentrées sur le risque de deepfakes politiques et ont négligé la violence sexuelle. « La violence sexuelle contre les femmes n’est pas prise aussi au sérieux dans les médias ou en politique que nous le souhaiterions – et ce schéma se répète dans la couverture médiatique et les réponses politiques aux deepfakes ».

Maddocks affirme que la violence sexuelle contre les femmes n’est pas prise aussi au sérieux dans les médias et la politique qu’elle le souhaiterait (Photo : fournie)

Ainsi, lorsque la technologie deepfake a commencé à se généraliser, « les gens étaient très préoccupés par cette idée de deepfakes politiques, se demandant ce qui allait se passer si nous avions deux discours présidentiels et que nous ne savions pas lequel était le vrai ». Ce n’était cependant pas le seul problème urgent. « En réalité, il était assez évident que les deepfakes étaient principalement utilisés comme une forme d’abus sexuel sur Internet », explique Maddocks. « La majorité des deepfakes sont des vidéos pornographiques deepfakes. »

N’importe qui peut devenir le sujet d’un deepfake : il suffit d’une photographie numérique d’une victime potentielle. « Il s’agit généralement de changer le visage d’une personne dans une vidéo pornographique de sorte qu’il semble que la personne joue dans une vidéo pornographique ou qu’elle ait des relations sexuelles », explique Maddocks. « On l’utilise généralement pour discréditer les victimes ou pour leur faire honte. On le voit généralement avec les femmes qui dénoncent les déséquilibres de pouvoir ou les femmes qui parlent en public en général. »

Cara Hunter, une politicienne nord-irlandaise de 26 ans, était en fin de campagne électorale lorsqu’elle a été victime de fausses vidéos pornographiques malveillantes. En avril 2022, quelques semaines seulement avant d’être élue députée du SDLP (Parti social-démocrate et travailliste) pour l’est de Derry, elle s’est rendu compte qu’une vidéo pornographique dans laquelle elle semblait se livrer à un acte sexuel oral circulait en ligne.

« J’étais à une fête de famille », se souvient-elle. « C’était le 90e anniversaire de ma grand-mère, j’étais entourée de ma famille et mon téléphone ne faisait que ding, ding, ding. Et au cours des deux semaines suivantes, ça a continué comme ça. »

Hunter a été ciblée dans les dernières étapes de sa campagne électorale (Photo : fournie)

Hunter ne sait toujours pas si la vidéo a été trafiquée à l’aide de la technologie deepfake ou si ceux qui souhaitaient la discréditer ont épluché des vidéos pornographiques jusqu’à ce qu’ils trouvent une actrice qui lui ressemblait beaucoup. Quoi qu’il en soit, être victime de faux porno était profondément pénible.

La vidéo a été partagée sur Twitter, Facebook et dans des groupes WhatsApp et Hunter estime que des dizaines de milliers de personnes l’ont visionnée. Elle a été inondée de messages et les conséquences dans la vie réelle se sont rapidement fait sentir. « Deux jours après que la vidéo a commencé à circuler, un homme m’a arrêtée dans la rue alors que je marchais seule et m’a demandé une fellation », raconte-t-elle.

« Il a évoqué la vidéo. C’était horrible, j’avais l’impression que tout le monde y croyait. Les gens riaient, se moquaient de moi et se moquaient de moi dans la rue. »

Se cacher n’était pas une option pour Hunter. « J’ai dû faire du porte-à-porte alors que des milliers de personnes pensaient que j’étais dans une vidéo porno », dit-elle. « Je frappais donc aux portes d’inconnus, remplie d’effroi, surtout si un jeune homme ouvrait la porte. »

Quitter les réseaux sociaux était également impossible à un moment aussi crucial de la campagne électorale et Hunter s’est sentie coincée. « Cela m’a mise dans une situation délicate car j’avais l’impression que je ne pouvais pas en parler publiquement – parce que c’est ce que la personne qui a créé la vidéo voulait que je fasse. » C’était, dit-elle, une forme de « guerre psychologique ».

Hunter s’est rendue à la police et a trouvé les policiers « compréhensifs » – mais ils n’ont finalement pas été en mesure de l’aider. « La législation actuelle est totalement dépassée » (https://inews.co.uk/news/sexual-harassment-criminal-offence-uk-help-tackle-violence-women-girls-1488958?ico=in-line_link) », dit-elle. « Après que j’ai signalé l’incident à la police, ils m’ont dit que leur équipe cybernétique avait des pouvoirs très limités. » Elle a été confrontée à une déception similaire lorsqu’elle a alerté les entreprises technologiques de la vidéo sur leurs plateformes.

En juillet 2022, la Law Commission a recommandé au gouvernement de modifier la loi afin que le partage de pornographie deepfake sans consentement soit un délit et puisse entraîner une peine de prison. Il n’existe actuellement aucune infraction pénale unique en Angleterre et au Pays de Galles qui s’applique au partage d’images intimes non consensuelles. Mais le gouvernement a retardé l’adoption de son projet de loi sur la sécurité en ligne (https://inews.co.uk/news/politics/fears-online-safety-bill-could-face-axe-amid-tory-disagreements-caretaker-government-hits-pause-law-1740676?ico=in-line_link) qui était censé s’attaquer à ce problème.

Isaacs, qui peut s’exprimer avec l’autorité d’une victime et d’une militante, affirme que c’est un « travail énorme » de s’attaquer aux deepfakes, à la fausse pornographie et aux abus sexuels basés sur des images. « Le premier problème est que notre processus législatif n’est pas adapté à l’objectif visé en matière de préjudices en ligne », dit-elle. « Il évolue beaucoup trop lentement et ne peut pas suivre le rythme de la technologie. Notre processus législatif au Royaume-Uni ne peut pas protéger les gens en ligne de manière sûre et proactive car il est trop lent. »

La réglementation des entreprises technologiques, notamment des plateformes de réseaux sociaux et des sites pornographiques, doit également être une priorité, dit-elle : « Nous n’avons tout simplement pas de contrôle sur ce sujet dans ce pays. Je ne parle pas du dark web. Ce sont des entreprises qui opèrent au Royaume-Uni, qui font partie de notre économie et qui devraient donc être tenues responsables de leurs pratiques immorales, contraires à l’éthique et illégales. »

Il est crucial de faire face à l’ampleur du problème de la fausse pornographie, dit Maddocks. « Le sexe est tabou », souligne-t-elle. « Les gens qui travaillent dans des start-ups technologiques et des groupes de réflexion ne veulent pas s’asseoir à la table ronde et parler de sexe. Ils ne veulent pas reconnaître que la racine de tant de problèmes technologiques contemporains est cette forme de sexualité très consommatrice sur Internet. »

« Le porno rapportera plus d’argent que la plupart des équipes sportives réunies. Le porno fait tourner Internet. Mais ils n’en parlent pas. »

La fausse pornographie peut être un moyen terriblement efficace de faire taire les femmes – mais ce n’est qu’en en discutant franchement que nous pourrons commencer à nous attaquer au problème. « Nous n’aimons pas penser à ce genre de choses, mais il faut les mettre en lumière et en discuter », explique Hunter.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • d414e0f