Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4024

Incidents associés

Incident 7692 Rapports
Investigative Journalist Rana Ayyub Targeted by AI-Generated Deepfake Pornography

Loading...
Tout est clair pour les deepfakes : réfléchissez-y à deux fois
lawfaremedia.org · 2020

Le verdict est tombé, et il est réconfortant : les deepfakes sont le « chien qui n’a jamais aboyé » (https://www.npr.org/2020/05/07/851689645/why-fake-video-audio-may-not-be-as-powerful-in-spreading-disinformation-as-feare). C’est ce qu’a déclaré Keir Giles, spécialiste de la Russie au Conflict Studies Research Centre au Royaume-Uni. Giles a estimé que la menace posée par les deepfakes était devenue si ancrée dans l’imaginaire public que personne ne serait dupe s’ils apparaissaient. En d’autres termes, les deepfakes « n’ont plus le pouvoir de choquer ». Tim Hwang est d’accord, mais pour des raisons différentes, certaines techniques, d’autres pratiques. Hwang a affirmé que plus il y avait de deepfakes, plus l’apprentissage automatique devenait efficace pour les détecter. Mieux encore, les principales plateformes concentrent leurs efforts pour supprimer les deepfakes, les laissant « relégués sur des sites avec trop peu d’utilisateurs pour avoir un effet majeur ».

Nous ne sommes pas d’accord avec chacune de ces affirmations. Les deepfakes ont en effet « aboyé », même si jusqu’à présent leur morsure s’est le plus souvent fait sentir d’une manière que beaucoup d’entre nous n’ont jamais vue. Les deepfakes ont en fait eu un sérieux impact sur la vie des gens, en particulier celle des femmes. Comme c’est souvent le cas avec les premières utilisations des technologies numériques, les femmes sont les canaris dans la mine de charbon.

Selon Deeptrace Labs, sur les quelque 15 000 vidéos deepfakes qui apparaissent en ligne, 96 % sont des vidéos de sexe deepfakes ; et 99 % d’entre elles impliquent des visages de femmes insérés dans du porno sans consentement. Même pour ceux qui ont beaucoup entendu parler des dangers potentiels des deepfakes, la possibilité d’être choqué reste forte. Pensez au sort de la journaliste et militante des droits de l’homme Rana Ayyub. Lorsqu’une vidéo de sexe deepfake est apparue en avril 2018 montrant Ayyub en train de se livrer à un acte sexuel auquel elle n’avait jamais participé, la vidéo s’est propagée comme une traînée de poudre. En 48 heures, la vidéo est apparue sur plus de la moitié des téléphones portables en Inde. Le profil Facebook et le compte Twitter d’Ayyub ont été inondés de menaces de mort et de viol. Des affiches indiquaient l’adresse de son domicile et affirmaient qu’elle était disponible pour des relations sexuelles anonymes. Pendant des semaines, Ayyub pouvait à peine manger ou parler. Elle était terrifiée à l’idée de quitter sa maison de peur que des inconnus ne mettent leurs menaces à exécution. Elle a arrêté d’écrire, le travail de sa vie, pendant des mois. C’est choquant à tous points de vue.

Est-ce vraiment différent de la menace posée par les formes de fraude familières et moins technologiques ? Oui. La cognition humaine nous prédispose à être persuadés par des preuves visuelles et audio, mais surtout lorsque la vidéo ou l’audio en question est d’une qualité telle que nos yeux et nos oreilles ne peuvent pas facilement détecter qu’il s’agit d’un phénomène artificiel. La vidéo et l’audio ont un impact puissant sur les gens. Nous les considérons comme vrais en pensant que nous pouvons croire ce que nos yeux et nos oreilles nous disent. De plus, plus le deepfake est salace et négatif, plus nous sommes enclins à le transmettre. Les chercheurs ont découvert que les canulars en ligne se propagent dix fois plus vite que les histoires vraies. Et si un deepfake correspond à nos points de vue, nous sommes encore plus susceptibles d'y croire. Pire encore, les technologies associées à la création de deepfakes sont susceptibles de se diffuser rapidement dans les années à venir, mettant cette capacité à la portée d'un cercle toujours plus large d'utilisateurs et d'abuseurs.

La prise de conscience croissante de la menace des deepfakes est elle-même potentiellement dangereuse. Elle augmente les chances que les gens deviennent la proie d'un phénomène que deux d'entre nous (Chesney et Citron) appellent le [dividende du menteur]. Au lieu de se laisser « tromper » par les deepfakes, les gens pourraient en venir à se méfier de tous les enregistrements vidéo et audio. La dégradation de la vérité est une aubaine pour les personnes moralement corrompues. Les menteurs peuvent échapper à la responsabilité de leurs méfaits et rejeter les preuves réelles de leurs méfaits en disant qu’il s’agit « simplement d’un deepfake ». Les politiciens ont déjà essayé de tirer parti du dividende du menteur. Au moment de la publication de la bande d’Access Hollywood en 2016, par exemple, le candidat Trump de l’époque a eu du mal à défendre ses propos : « Je n’attends même pas. Et quand vous êtes une star, ils vous laissent faire. Vous pouvez tout faire. ... Les attraper par la chatte. Vous pouvez tout faire. » Un an plus tard, cependant, le président Trump a tenté de jeter le doute sur l’enregistrement en disant qu’il était faux ou manipulé. Le président a ensuite fait une affirmation similaire pour tenter de se distancer de ses propres commentaires sur le limogeage du directeur du FBI James Comey lors d'une interview avec Lester Holt de NBC. De telles tentatives trouveront un public plus réceptif à l'avenir, à mesure que l'on se rendra compte qu'il est possible de réaliser de fausses vidéos et de faux enregistrements audio qui ne peuvent être détectés comme tels uniquement par nos yeux et nos oreilles.

La technologie peut-elle vraiment nous sauver, comme l'a suggéré Hwang, en créant des outils de détection fiables ? Pour commencer, nous ne sommes pas d'accord avec l'affirmation selon laquelle les outils de détection gagneront inévitablement la partie dans ce jeu du chat et de la souris. Nous n’en sommes certainement pas encore là en ce qui concerne la détection des deepfakes créés par des réseaux antagonistes génératifs, et il n’est pas évident que nous devions être optimistes quant à l’atteinte de ce point. Des décennies d’expérience dans la course aux armements impliquant le spam, les logiciels malveillants, les virus et les falsifications de photos nous ont appris qu’il est difficile de jouer la défensive et que les adversaires peuvent être très motivés et innovants, trouvant constamment des moyens de pénétrer les défenses. De plus, même si des technologies de détection efficaces émergent, il n’est pas assuré qu’elles se révéleront évolutives, diffusables et abordables dans la mesure nécessaire pour avoir un impact spectaculaire sur la menace des deepfakes.

Il est certain que les deepfakes ne sont pas le seul moyen de diffuser des mensonges. Les cheapfakes (des méthodes moins techniques pour éditer des vidéos ou des fichiers audio de manière trompeuse) sont depuis longtemps extrêmement efficaces pour diffuser de la désinformation. Le 23 mai 2019, une vidéo de Nancy Pelosi, montée de manière trompeuse et qui la faisait paraître ivre ou incapable, a commencé à circuler (https://www.lawfaremedia.org/article/about-pelosi-video-what-do-about-cheapfakes-2020). Le président et ses alliés l’ont joyeusement tweetée à des millions de personnes, même si le Washington Post avait déjà démystifié la vidéo comme étant une contrefaçon. Mais il ne s’ensuit pas que nous n’avons rien à craindre des deepfakes. Si les cheapfakes facilement démystifiés se sont révélés si efficaces, il s’ensuit que nous pouvons nous attendre à des dommages plus vastes et plus profonds causés par des faux qui sont plus crédibles à première vue et plus difficiles à détecter après une inspection plus approfondie.

Bien que louable, le fait que des plateformes majeures comme Facebook et Twitter aient interdit certaines formes de contrefaçons numériques ne signifie pas que les deepfakes seront inévitablement « relégués à des sites avec trop peu d’utilisateurs pour avoir un effet majeur ». Ces interdictions ne s’appliquent pas immédiatement ou parfaitement. Les faux doivent être détectés, puis jugés frauduleux d'une manière particulière qui contrevient à la politique (ce qui n'est pas toujours évident, même lorsque la modification est détectée). Même dans ce cas, une grande partie du mal est déjà fait. Étant donné que la demi-vie des publications sur les réseaux sociaux se mesure en heures, les dommages causés par les deepfakes sous forme de pornographie non consensuelle, de désinformation ou de fraude seront rapides et furieux, même avec des politiques bien intentionnées et bien exécutées. La vérité sèche et démystifiante ne rattrapera jamais le mensonge brûlant. Donc, oui, les deepfakes continueront de « percoler dans des zones obscures », comme cela a été suggéré, mais leurs meilleurs jours d'impact sur les plateformes à haut volume sont probablement devant nous, pas derrière nous.

Ce n'est pas le moment de s'asseoir et de crier victoire sur les deepfakes ou de suggérer que les inquiétudes à leur égard sont exagérées. Le coronavirus a mis en évidence l’impact mortel des mensonges crédibles, et l’élection de notre vie se profile à l’horizon. Plus que jamais, nous devons faire confiance à ce que nos yeux et nos oreilles nous disent.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd