Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4533

Incidents associés

Incident 9048 Rapports
Kate Isaacs, Advocate Against Image-Based Abuse, Reports Being Deepfaked

Loading...
« J'ai eu un pincement au cœur après avoir vu un clip sur Internet avec mon visage - mais ce n'était pas moi »
mirror.co.uk · 2023

Une femme de 30 ans a déclaré que son estomac s'était « noué » lorsqu'elle a vu une vidéo deepfake porn montrant son visage.

Kate Isaacs a vu la vidéo pour la première fois en parcourant Twitter et s'est rappelée avoir eu « chaud » lorsqu'elle a réalisé que la femme dans la vidéo lui ressemblait.

Elle a commencé à se poser de nombreuses questions, notamment où la vidéo avait été filmée, si quelqu'un l'avait filmée sans son consentement et qui avait pu publier la vidéo.

En raison de son anxiété, elle n'a pas réalisé au début que la vidéo n'était pas la sienne, mais que son visage avait été superposé sur le corps d'une star du porno grâce à un logiciel de deepfake, qui manipule numériquement les images, créant des canulars visuels, audio et vidéo.

Mme Isaacs a déclaré que la vidéo deepfake était « tellement convaincante » qu'il lui a fallu quelques minutes pour se rendre compte que ce n'était pas elle.

Elle a déclaré au Daily Mail : « Tous ceux qui me connaissent penseraient la même chose. C'était dévastateur. Je me suis sentie violée, et tout le monde pouvait le voir. »

La femme a déclaré qu'elle n'avait jamais découvert qui avait réalisé la vidéo, mais qu'elle pensait avoir été ciblée car elle avait déjà parlé de la montée de la « pornographie non consensuelle ».

L'activiste, qui est la fondatrice du groupe de campagne Not Your Porn, a déclaré que la fausse vidéo pornographique d'elle, apparue en 2020, avait été réalisée à partir d'images innocentes prises sur Internet.

Elle a déclaré : « C'est tout ce qu'il faut maintenant. Cela fait de chaque femme qui a une image d'elle-même en ligne une victime potentielle ; c'est à peu près le cas de nous toutes, de nos jours. »

Les deepfakes sont créés à l'aide d'un logiciel d'intelligence artificielle qui peut prendre une vidéo existante et remplacer le visage d'une personne par celui d'une autre personne, voire reproduire l'expression faciale.

Cette technologie a été utilisée pour créer des vidéos deepfakes légères de célébrités, mais son utilisation la plus courante est celle des vidéos sexuellement explicites.

À mesure que les logiciels deviennent plus sophistiqués, les experts préviennent que les deepfakes sont appelés à devenir un problème croissant.

Adam Dodge, fondateur d'EndTAB, un groupe qui propose des formations sur les abus liés à la technologie, a déclaré à CBS News (https://www.cbsnews.com/news/deepfake-porn-ai-technology/) : « La réalité est que la technologie continuera à proliférer, à se développer et à devenir aussi simple que d'appuyer sur un bouton.

« Et tant que cela se produira, les gens continueront sans aucun doute à utiliser cette technologie à mauvais escient pour nuire aux autres, principalement par le biais de violences sexuelles en ligne, de pornographie deepfake et de fausses images de nu. »

Le problème rencontré par Mme Isaacs est malheureusement assez courant, comme le montre l'exemple de Noelle Martin, une femme de Perth, en Australie.

La jeune femme de 28 ans a trouvé une pornographie deepfake d'elle-même il y a 10 ans lorsqu'elle a utilisé Google pour rechercher son nom.

Elle a déclaré qu'elle ne savait toujours pas qui avait créé les fausses images et qu'elle pensait que quelqu'un avait pris une photo publiée sur son réseau social

Malgré avoir contacté plusieurs sites Internet pour tenter de faire retirer les images, elle a été soit ignorée, soit a vu les fausses photos être retirées avant d'être à nouveau publiées en ligne.

Mme Martin a déclaré : « Vous ne pouvez pas gagner. C'est quelque chose qui sera toujours là. C'est comme si cela vous avait ruiné à jamais. »

En octobre 2022, Mme Isaacs s'est entretenue avec le Sunday People alors que des chiffres montraient que seulement 3 % des incidents de vengeance pornographie signalés à la police ont donné lieu à des accusations.

Le partage de photos ou de vidéos sexuelles privées d'une autre personne sans son consentement est devenu illégal en 2015 - mais sur les 23 672 plaintes déposées à la police à ce sujet depuis, seulement 846 ont donné lieu à une inculpation.

Mme Isaacs a déclaré : « La loi originale de 2015 était laxiste et signifie qu'il est difficile d'obtenir une condamnation. Il faut être capable de prouver une intention malveillante. De plus, personne ne connaît vraiment la loi. »

Dans certains cas, le « manque d'intérêt public » a été invoqué comme raison pour ne pas porter plainte, selon une demande d'accès à l'information adressée aux 43 forces de police britanniques. Et toutes n'ont pas répondu, la police métropolitaine faisant partie des 12 qui ont refusé.

Mme Isaacs a déclaré : « Je suis dégoûtée qu'ils disent que ce n'est pas dans l'intérêt public. C'est choquant et cela démontre clairement à quel point les droits des femmes et les abus sexuels basés sur l'image sont peu pris au sérieux. »

Natasha Saunders, 33 ans, mère de deux enfants et victime de violences conjugales, a déclaré : « C'est horrible. La loi n'est pas appliquée et elle n'est pas suffisante. Ce sont des crimes bien réels.

« Quand j'étais avec mon agresseur, il prenait des photos de moi. Quand il sortira de prison, il aura accès à ces images. Même après mon départ, j'ai reçu des menaces. Il a dit qu'il partagerait les images avec tous les contacts de mon répertoire. Il faut que la police soit mieux encadrée. »

L'ex-mari de Mme Saunders pourrait être libéré d'ici 2025, après avoir été condamné à 12 ans de prison en 2018 pour trois chefs d'accusation de viol et un chef d'agression sexuelle.

Vous pouvez retrouver cette histoire dans  Mes favoris.Ou en naviguant vers l'icône utilisateur en haut à droite.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd