Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2883

Loading...
Les deepfakes vont faire des ravages dans la société. Nous ne sommes pas préparés
forbes.com · 2020

Le mois dernier, lors de la série documentaire à succès d'ESPN The Last Dance, State Farm a lancé une publicité télévisée qui est devenue l'une des [plus discutées](https: //www.adweek.com/brand-marketing/state-farm-and-kenny-mayne-brilliantly-faked-us-all-out-during-the-last-dance/) annonces de mémoire récente. Il semblait montrer des images de 1998 d'un analyste d'ESPN faisant des prédictions d'une précision choquante sur l'année 2020. Il s'est avéré que le clip n'était pas authentique : il a été généré à l'aide d'une IA de pointe. La publicité a surpris, amusé et ravi les téléspectateurs. Ce que les téléspectateurs auraient dû ressentir, cependant, était une profonde inquiétude. La publicité de State Farm était un exemple bénin d'un nouveau phénomène important et dangereux dans l'IA : les deepfakes. La technologie Deepfake permet à toute personne disposant d'un ordinateur et d'une connexion Internet de créer des photos et des vidéos réalistes de personnes disant et faisant des choses qu'elles n'ont pas réellement dites ou faites. Une combinaison des expressions "apprentissage en profondeur" et "faux", deepfakes est apparu pour la première fois sur Internet fin 2017, propulsé par une nouvelle méthode innovante d'apprentissage en profondeur connue en tant que réseaux antagonistes génératifs (GAN). Plusieurs vidéos deepfake sont devenues virales récemment, donnant à des millions de personnes dans le monde un premier aperçu de cette nouvelle technologie : le président Obama utilisant un juron à décrire le président Trump, Mark Zuckerberg admiting que le véritable objectif de Facebook est de manipuler et d'exploiter ses utilisateurs, Bill Hader se transformant en Al Pacino dans un talk-show de fin de soirée. La quantité de contenu deepfake en ligne augmente à un rythme rapide. Début 2019, il y avait 7 964 vidéos deepfake en ligne, selon un rapport de la startup Deeptrace ; à peine neuf mois plus tard, ce chiffre était passé à 14 678. Il a sans doute continué à gonfler depuis lors. Bien qu'impressionnante, la technologie deepfake d'aujourd'hui n'est toujours pas à la hauteur des séquences vidéo authentiques - en regardant de près, il est généralement possible de dire qu'une vidéo est un deepfake. Mais la technologie s'améliore à un rythme époustouflant. Les experts prédisent que les deepfakes seront impossibles à distinguer des images réelles avant longtemps. "En janvier 2019, les deep fakes étaient bogués et scintillants", said Hany Farid, professeur à l'UC Berkeley et expert en deepfake. "Neuf mois plus tard, je n'ai jamais rien vu de comparable à la vitesse à laquelle ils vont. C'est la pointe de l'iceberg. » Nous sommes aujourd'hui à un point d'inflexion. Dans les mois et les années à venir, les deepfakes menacent de passer d'une bizarrerie Internet à une force politique et sociale largement destructrice. La société doit agir maintenant pour se préparer. Quand voir n'est pas croire ----------------------------- Le premier cas d'utilisation auquel la technologie deepfake a été largement appliquée - comme c'est souvent le cas le cas avec les nouvelles technologies, c'est de la pornographie. En septembre 2019, 96 % des vidéos deepfake en ligne étaient pornographiques, selon le rapport Deeptrace. Une poignée de sites Web dédiés spécifiquement à la pornographie deepfake ont vu le jour, recueillant collectivement des centaines de millions de vues au cours des deux dernières années. La pornographie deepfake est presque toujours non consensuelle, impliquant la synthèse artificielle de vidéos explicites mettant en vedette des célébrités célèbres ou des contacts personnels. Depuis ces coins sombres du Web, l'utilisation de deepfakes a commencé à se répandre dans la sphère politique, où le potentiel de chaos est encore plus grand. Il ne faut pas beaucoup d'imagination pour saisir le mal qui pourrait être fait si des populations entières pouvaient voir des vidéos fabriquées qu'elles croient réelles. Imaginez des images truquées d'un politicien se livrant à des pots-de-vin ou à des agressions sexuelles juste avant une élection ; ou de soldats américains commettant des atrocités contre des civils à l'étranger ; ou du président Trump déclarant le lancement d'armes nucléaires contre la Corée du Nord. Dans un monde où même une certaine incertitude existe quant à l'authenticité de ces clips, les conséquences pourraient être catastrophiques. En raison de l'accessibilité généralisée de la technologie, de telles images pourraient être créées par n'importe qui : acteurs parrainés par l'État, groupes politiques, individus isolés. Dans un rapport récent, The Brookings Institution résumé de façon sinistre l'éventail des dangers politiques et sociaux que représentent les deepfakes : « déformer le discours démocratique ; manipuler les élections ; l'érosion de la confiance dans les institutions ; affaiblissement du journalisme ; l'exacerbation des divisions sociales ; atteinte à la sécurité publique; et infliger des dommages difficiles à réparer à la réputation de personnalités éminentes, y compris des élus et des candidats à des élections ». Compte tenu des enjeux, les législateurs américains ont commencé à prêter attention. "Auparavant, si vous vouliez menacer les États-Unis, vous aviez besoin de 10 porte-avions, d'armes nucléaires et de missiles à longue portée", a déclaré le sénateur américain Marco Rubio (https://www.csoonline.com/ article/3293002/deepfake-videos-how-and-why-they-work.html) récemment. "Aujourd'hui... tout ce dont vous avez besoin est la capacité de produire une fausse vidéo très réaliste qui pourrait saper nos élections, qui pourrait plonger notre pays dans une crise interne énorme et nous affaiblir profondément." Les technologues sont d'accord. Dans les mots de Hani Farid, l'un des plus grands experts mondiaux des deepfakes : « Si nous pouvons Ne croyez pas les vidéos, les audios, l'image, les informations qui sont glanées dans le monde entier, c'est un grave risque pour la sécurité nationale. Ce risque n'est plus seulement hypothétique : il existe des exemples précoces de deepfakes influençant la politique dans le monde réel. Les experts avertissent que ces incidents sont des canaris dans une mine de charbon. Le mois dernier, un groupe politique en Belgique a publié une vidéo deepfake du Premier ministre belge prononçant un discours qui a lié l'épidémie de COVID-19 aux dommages environnementaux et a appelé à une action drastique contre le changement climatique. Au moins certains téléspectateurs pensaient que le discours était réel. Encore plus insidieusement, la simple possibilité qu'une vidéo pourrait être un deepfake peut semer la confusion et faciliter la tromperie politique, que la technologie deepfake ait été ou non effectivement utilisée. L'exemple le plus dramatique nous vient du Gabon, un petit pays d'Afrique centrale. Fin 2018, le président gabonais Ali Bongo n'avait pas été vu en public depuis des mois. Des rumeurs circulaient selon lesquelles il n'était plus en assez bonne santé pour ses fonctions ou même qu'il était décédé. Dans une tentative d'apaiser ces inquiétudes et de réaffirmer le leadership de Bongo sur le pays, son administration a annoncé qu'il donnerait un discours télévisé à l'échelle nationale le jour du Nouvel An. Dans l'adresse vidéo (qui vaut l'examen de première main vous-même), Bongo apparaît raide et guindé, avec un discours et des manières faciales non naturelles. La vidéo a immédiatement attisé les soupçons selon lesquels le gouvernement cachait quelque chose au public. Les opposants politiques de Bongo ont déclaré que le les images étaient un deepfake et que le président était frappé d'incapacité ou mort. Les rumeurs d'un complot deepfake se sont propagées rapidement sur les réseaux sociaux. La situation politique au Gabon se déstabilise rapidement. En une semaine, l'armée avait lancé un coup d'État - le premier dans le pays depuis 1964 - citant la vidéo du Nouvel An comme preuve que quelque chose n'allait pas avec le président. À ce jour, les experts ne peuvent pas dire avec certitude si la vidéo du Nouvel An était authentique, même si la plupart pensent que c'était le cas. (Le coup d'État s'est avéré infructueux; Bongo est depuis apparu en public et reste en fonction aujourd'hui). Mais que la vidéo soit réelle est presque hors de propos. La leçon la plus importante est que l'émergence des deepfakes rendra de plus en plus difficile pour le public de faire la distinction entre ce qui est réel et ce qui est faux, une situation que les acteurs politiques exploiteront inévitablement, avec des conséquences potentiellement dévastatrices. « Les gens utilisent déjà le fait que les deepfakes existent pour discréditer les preuves vidéo authentiques », [a déclaré] (https://www.bbc.com/news/business-51204954) Hao Li, professeur à l'USC. "Même s'il y a des images de vous faisant ou disant quelque chose, vous pouvez dire que c'était un deepfake et il est très difficile de prouver le contraire." Lors de deux incidents récents, des politiciens [en Malaisie](https://www.malaymail.com/news/malaysia/2019/06/12/is-the-political-aide-viral-sex-video-confession-real-or -a-deepfake/1761422) et au Brésil ont cherché à échapper aux conséquences de séquences vidéo compromettantes en affirmant que les vidéos étaient des deepfakes. Dans les deux cas, personne n'a pu établir définitivement le contraire – et l'opinion publique est restée divisée. La chercheuse Aviv Ovadya met en garde contre ce qu'elle appelle (https://www.washingtonpost.com/technology/2019/06/12/top-ai-researchers-race-detect-deepfake-videos-we-are-outgunned/) "apathie de la réalité": "C'est trop d'efforts pour comprendre ce qui est réel et ce qui ne l'est pas, donc vous êtes plus disposé à vous contenter de vos affiliations précédentes." Dans un monde où voir n'est plus croire, la capacité d'une large communauté à se mettre d'accord sur ce qui est vrai – et encore moins à s'engager dans un dialogue constructif à ce sujet – semble soudain précaire. Un jeu de chat et de souris technologique ------------------------------------- La technologie de base qui rend possible les deepfakes est une branche de l'apprentissage en profondeur connue sous le nom de réseaux antagonistes génératifs (GAN). Les GAN ont été inventés par Ian Goodfellow en 2014 lors de ses études de doctorat à l'Université de Montréal, l'un des meilleurs instituts de recherche en IA au monde. En 2016, le grand IA Yann LeCun appelé GANs "l'idée la plus intéressante dans ces dix dernières années dans l'apprentissage automatique. Avant le développement des GAN, les réseaux de neurones étaient aptes à classer le contenu existant (par exemple, comprendre la parole ou reconnaître les visages) mais pas à créer de nouveaux contenus. Les GAN ont donné aux réseaux de neurones le pouvoir non seulement de percevoir, mais aussi de créer. La percée conceptuelle de Goodfellow consistait à concevoir des GAN à l'aide de deux réseaux de neurones distincts - l'un connu sous le nom de "générateur", l'autre connu sous le nom de "discriminateur" - et de les opposer l'un à l'autre. À partir d'un ensemble de données donné (par exemple, une collection de photos de visages humains), le générateur commence à générer de nouvelles images qui, en termes de pixels, sont mathématiquement similaires aux images existantes. Pendant ce temps, le discriminateur reçoit des photos sans qu'on lui dise si elles proviennent de l'ensemble de données d'origine ou de la sortie du générateur ; sa tâche est d'identifier quelles photos ont été générées synthétiquement. Alors que les deux réseaux travaillent de manière itérative l'un contre l'autre - le générateur essayant de tromper le discriminateur, le discriminateur essayant de découvrir les créations du générateur - ils perfectionnent les capacités de l'autre. Finalement, le taux de réussite de la classification du discriminateur tombe à 50 %, pas mieux qu'une estimation aléatoire, ce qui signifie que les photos générées de manière synthétique sont devenues impossibles à distinguer des originaux. L'une des raisons pour lesquelles les deepfakes ont proliféré est la philosophie open source de la communauté de l'apprentissage automatique : à commencer par l'article original de Goodfellow, chaque fois qu'une avancée de la recherche dans la modélisation générative se produit, la technologie est généralement mise à disposition gratuitement pour que n'importe qui dans le monde puisse la télécharger et l'utiliser. Étant donné que les deepfakes sont basés sur l'IA en premier lieu, certains se tournent vers l'IA comme une solution aux applications deepfake nuisibles. Par exemple, les chercheurs ont construit des systèmes sophistiqués de détection de deepfake qui évaluent l'éclairage, les ombres, les mouvements du visage et d'autres caractéristiques afin de signaler les images fabriquées. Une autre approche défensive innovante consiste à ajouter un filtre à un fichier image qui rend impossible l'utilisation de cette image pour générer un deepfake. Une poignée de startups ont émergé et proposent des logiciels pour se défendre contre les deepfakes, notamment Truepic et Deeptrace. Pourtant, de telles solutions technologiques ne sont pas susceptibles d'endiguer la propagation des deepfakes sur le long terme. Au mieux, ils conduiront à une dynamique sans fin du chat et de la souris, similaire à ce qui existe aujourd'hui dans la cybersécurité, dans laquelle les percées du côté de la détection des deepfakes stimulent l'innovation dans la génération des deepfakes. La nature open source de la recherche sur l'IA rend cela d'autant plus probable. Pour donner un exemple, en 2018, des chercheurs de l'Université d'Albany ont publié une analyse montrant que les irrégularités de clignotement étaient souvent un signe révélateur qu'une vidéo était fausse. Ce fut une percée utile dans la lutte contre les deepfakes - jusqu'à ce que, en quelques mois, de nouvelles vidéos deepfakes commencent à émerger, corrigeant cette imperfection clignotante. « Nous sommes dépassés en armes », a déclaré Farid. "Le nombre de personnes travaillant du côté vidéo-synthèse, par opposition au côté détecteur, est de 100 contre 1." La voie à suivre ---------------- Au-delà des remèdes purement technologiques, quelles mesures législatives, politiques et sociales pouvons-nous prendre pour nous défendre contre les dangers des deepfakes ? Une solution simple et tentante consiste à adopter des lois interdisant la création ou la diffusion de deepfakes. L'État de Californie a expérimenté cette approche [en promulguant une loi l'année dernière](https://www.theguardian.com/us-news/2019/oct/07/california-makes-deepfake-videos-illegal-but- loi-peut-être-difficile-à-appliquer) qui rend illégale la création ou la distribution de deepfakes d'hommes politiques dans les 60 jours suivant une élection. Mais une interdiction générale des deepfakes présente des défis à la fois constitutionnels et pratiques. Le premier amendement de la Constitution américaine consacre la liberté d'expression. Toute loi interdisant le contenu en ligne, en particulier le contenu politique, risque d'aller à l'encontre de ces protections constitutionnelles. "Le discours politique bénéficie du plus haut niveau de protection en vertu de la loi américaine", a déclaré la professeure de droit Jane Kirtley. "Le désir de protéger les gens contre les contenus trompeurs à l'approche d'une élection est très fort et très compréhensible, mais je suis sceptique quant à leur capacité à appliquer la loi [de Californie]." Au-delà des préoccupations constitutionnelles, les interdictions de deepfake s'avéreront probablement impossibles à appliquer en raison de l'anonymat et de l'absence de frontières d'Internet. D'autres cadres juridiques existants qui pourraient être déployés pour lutter contre les deepfakes incluent le droit d'auteur, la diffamation et le droit de publicité. Mais étant donné la large applicabilité de la doctrine de l'utilisation équitable, l'utilité de ces voies légales peut être limitée. À court terme, la solution la plus efficace pourrait provenir de grandes plateformes technologiques comme Facebook, Google et Twitter prenant volontairement des mesures plus rigoureuses pour limiter la propagation des deepfakes nuisibles. S'appuyer sur des entreprises privées pour résoudre de vastes problèmes politiques et sociétaux rend naturellement beaucoup de gens profondément mal à l'aise. Pourtant, comme le disent les juristes Bobby Chesney et Danielle Citron (https://www.brookings.edu/research/is-seeing-still-believing-the-deepfake-challenge-to-truth-in-politics/#cancel ), les accords de conditions d'utilisation de ces plates-formes technologiques sont "les documents les plus importants régissant la parole numérique dans le monde d'aujourd'hui". En conséquence, les politiques de contenu de ces entreprises peuvent être "le mécanisme de réponse le plus saillant de tous" aux deepfakes. Une option législative connexe consiste à modifier la controversée article 230 de la Communications Decency Act. Rédigé aux débuts de l'Internet commercial, l'article 230 confère aux sociétés Internet une immunité civile quasi totale pour tout contenu publié sur leurs plateformes par des tiers. Le retour de ces protections rendrait les entreprises comme Facebook légalement responsables de limiter la diffusion de contenu préjudiciable sur leurs sites. Mais une telle approche soulève des problèmes complexes de liberté d'expression et de censure. En fin de compte, aucune solution unique ne suffira. Une première étape essentielle consiste simplement à sensibiliser le public aux possibilités et aux dangers des deepfakes. Une population informée est une défense cruciale contre la désinformation généralisée. La montée récente des fausses nouvelles a fait craindre que nous entrions dans un monde « post-vérité ». Les deepfakes menacent d'intensifier et d'accélérer cette trajectoire. Le prochain grand chapitre de ce drame approche à grands pas : les élections de 2020. Les enjeux pourraient difficilement être plus élevés. "L'homme devant le tank de la place Tiananmen a bouleversé le monde", [dit](https://www.washingtonpost.com/technology/2019/06/12/top-ai-researchers-race-detect-deepfake- videos-we-are-outgunned/) Le professeur de la NYU Nasir Memon. « Nixon au téléphone lui a coûté sa présidence. Les images d'horreur des camps de concentration nous ont finalement poussés à l'action. Si la notion de ne pas croire ce que vous voyez est attaquée, c'est un énorme problème. Il faut restaurer la vérité en voyant à nouveau.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e132322