Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4520

Incidents associés

Incident 90318 Rapports
Northern Ireland MLA Cara Hunter Allegedly Targeted by Deepfake Pornography Ahead of May 2022 Assembly Election

Loading...
Le porno deepfake cible les politiciens et montre comment l'IA peut être utilisée comme arme pour perturber les élections
the-decoder.com · 2024

Une attaque de deepfake pornographique visant la politicienne nord-irlandaise Cara Hunter quelques semaines avant une élection montre comment l'IA peut être utilisée pour perturber les processus démocratiques.

Lors d'une récente conférence TED, la politicienne nord-irlandaise Cara Hunter a partagé son expérience d'une attaque de deepfake qui a presque fait dérailler sa campagne. En avril 2022, quelqu'un a créé et partagé une fausse vidéo pornographique d'elle sur WhatsApp. La vidéo s'est rapidement répandue dans toute l'Irlande du Nord, apparaissant seulement trois semaines avant que les électeurs ne se rendent aux urnes.

« Bien que cette femme dans la vidéo ne soit pas moi, elle me ressemblait exactement. Incroyablement comme moi. Étrangement comme moi », a déclaré Hunter lors de sa conférence. Lorsqu'elle a contacté la police locale, ils n'ont pas pu l'aider - ils n'avaient tout simplement pas la technologie nécessaire pour retrouver la provenance de la vidéo.

Les retombées ont été rapides et brutales. Hunter a reçu d'innombrables messages vulgaires, et des gens ont même commencé à la harceler dans la rue. Dans la communauté soudée de 1,8 million de personnes d'Irlande du Nord, la vidéo s'est répandue comme une traînée de poudre, au point que même les membres de sa propre famille ont commencé à douter de sa version des faits.

Quand la technologie cible la démocratie

L'attaque met en évidence une intersection dangereuse entre la technologie et le harcèlement ciblé. « C'est le moment où la misogynie rencontre l'utilisation abusive de la technologie, et elle a même le potentiel d'influencer le résultat d'une élection démocratique », a expliqué Hunter.

Le harcèlement ne s'est pas arrêté avec la vidéo. Six mois plus tard, Hunter a reçu 15 autres images deepfake générées par l'IA la montrant en sous-vêtements. Elle ne sait toujours pas qui les a créées, et dans de nombreux endroits, faire ce genre de deepfakes n'est même pas encore illégal, dit Hunter.

Pour Hunter, ces attaques représentent plus qu'un simple harcèlement personnel : elles constituent une menace directe pour les systèmes démocratiques. « Sans vérité, la démocratie s'effondre. La vérité nous permet de prendre des décisions éclairées, elle nous permet de demander des comptes aux dirigeants, ce qui est très important », a-t-elle déclaré.

À l'avenir, Hunter plaide pour une réglementation plus stricte de l'IA et souhaite que des principes éthiques soient intégrés à la technologie dès le départ.

« Je suis passionnée par le fait que l'IA peut être une technologie humaniste avec des valeurs humaines qui complètent la vie que nous menons pour faire de nous les meilleures versions de nous-mêmes », a-t-elle expliqué. « Mais pour ce faire, je pense que nous devons intégrer l'éthique dans cette technologie, éliminer les préjugés, installer l'empathie et nous assurer qu'elle est alignée sur les valeurs et les principes humains. »

La création de deepfakes convaincants devient de plus en plus facile de jour en jour

L'expérience de Hunter s'ajoute à un modèle inquiétant d'attaques deepfakes qui ciblent en grande majorité les femmes. Le problème est apparu pour la première fois en 2017, lorsqu'un utilisateur anonyme de Reddit a commencé à publier de fausses vidéos pornographiques de célébrités sous le nom d'utilisateur « deepfakes » - donnant son nom à la technologie.

Depuis lors, créer des deepfakes convaincants est devenu de plus en plus simple et accessible. Les victimes vont désormais bien au-delà des célébrités, même les mineurs deviennent des cibles. Le cas de Hunter montre comment cette technologie peut être utilisée comme arme pour harceler et intimider les femmes qui entrent dans la sphère publique.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd