Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5592

Incidents associés

Incident 7543 Rapports
Female Politicians in the United Kingdom Reportedly Victimized by Purported Deepfake Pornography

Loading...
Nous devons lutter contre le futur deepfake
newstatesman.com · 2025

Penny Mordaunt a marqué l'imaginaire collectif britannique à coups d'épée en devenant la révélation inattendue du couronnement du roi Charles III en mai 2023. Nous avions perdu une reine stoïque ; en voici une autre. Mordaunt a porté l'Épée d'État, la plus lourde de la collection royale, pendant 50 minutes. Sous les yeux du monde entier, Mordaunt a gardé son calme, symbole de la gravité cérémonielle, de la force, de la tradition et de l'honneur.

Mais imaginez ce visage maculé de pornographie violente ! S'adressant récemment à BBC Newsnight, l'ancienne députée conservatrice et ministre a révélé avoir été victime de deepfakes pornographiques alors qu'elle siégeait au Parlement. Son visage, ainsi que ceux d'autres députées, dont Priti Patel et Angela Rayner, avaient été intégrés numériquement à des vidéos explicites. « C'était délibérément humiliant et violent », a-t-elle déclaré.

Français Les deepfakes sont la dernière frontière grotesque dans la bataille pour la dignité numérique, où l'intelligence artificielle est instrumentalisée pour humilier, déresponsabiliser et violer le corps des femmes. Et le mal infligé n'est pas virtuel - il peut être aussi réel que n'importe quelle autre forme de violence sexuelle. Les gros titres de 2013 ont peut-être affirmé le contraire : « Aucun mal dans les vidéos de viol simulé (à condition qu'elles soient bien faites), disent les ministres » titrait le Telegraph. Bien que cela soit antérieur de quelques années à l'apparition des deepfakes, il est sombre que, même aujourd'hui, certains pensent encore que ce principe fondamental de l'autonomie des femmes est sujet à débat. La violence numérique est de la *violence, comme le comprend Mordaunt. « Les personnes derrière tout ça », a-t-elle déclaré, « ne se rendent pas compte des conséquences concrètes d'un tel acte. »

Depuis la création du premier deepfake en 2017, les vidéos sexuellement explicites générées par l'IA ont proliféré sur Internet. Une étude a estimé qu'un demi-million de deepfakes ont été partagés en 2023 ; le total devrait atteindre huit millions cette année. 98 % des deepfakes sont sexuellement explicites, et 99 % d'entre eux concernent des femmes. Cette technologie est à la fois misogyne et, à l'heure actuelle, non réglementée. Pire encore, elle est désormais si sophistiquée que les spectateurs ne se rendent même plus compte qu'ils consomment des fakes. Nous sommes au bord du précipice, face à une génération potentiellement entière de jeunes hommes dont la compréhension du consentement sexuel est faussée par des hallucinations numériques.

Le gouvernement de Keir Starmer a montré une certaine volonté de s'attaquer aux problèmes liés aux deepfakes. Des amendements à la loi sur la sécurité en ligne, qui obligent les sites pornographiques à mettre en place des mesures de vérification de l'âge, sont entrés en vigueur le 25 juillet. L'objectif est d'empêcher les enfants d'accéder à du contenu explicite et, ainsi, de les protéger. Il convient toutefois de noter les retards inutiles avant l'adoption de la loi. (S'il est illégal de distribuer des deepfakes, il est légal d'en créer. Rishi Sunak s'est engagé à légiférer contre la production de deepfakes en avril 2024, bien que cette loi n'ait jamais été concrétisée ; Keir Starmer s'est engagé à faire de même en janvier 2025, mais la production reste légale.) Il convient également de noter qu'une grande partie du porno existe en dehors des sites pornographiques traditionnels, circulant plutôt dans les méandres obscurs des groupes Telegram, des fils de discussion Reddit et de 4chan.

Quelles que soient les mesures, nous en avons besoin de davantage. Le deepfake pornographique piloté par l'IA est un nouveau théâtre d'abus inquiétant qui progresse, comme tous les développements de l'IA, à un rythme alarmant. Mais la technologie est faite par des humains. L'échafaudage de nos vies numériques est conçu, organisé et entretenu par d'autres. L'épée que Mordaunt brandissait lors du couronnement du roi Charles était historique et symbolique. Aujourd'hui, son épée est rhétorique : un appel à l'action contre la dégradation de l'autonomie, de l'identité et de la sécurité des femmes dans un monde qui traite de plus en plus leurs visages et leurs corps comme des biens publics.

Mordaunt a révélé une faille effrayante dans la société britannique. Les enfants ont un accès illimité à la pornographie. Les femmes sont transformées en chimères altérées numériquement, sans consentement et sans recours. Permettre que cela perdure est non seulement un échec réglementaire, mais aussi un échec culturel. L'évolution technologique est inexorable ; la violence contre les femmes est pérenne. Internet est difficile à contenir et regorge d'acteurs malveillants. Mais nous devons faire preuve de volonté pour protéger la vie privée et la dignité fondamentales. Aussi lourde soit-elle, nous devons prendre cette épée et la porter.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd