Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2435

Incidents associés

Incident 2012 Rapports
Climate Action Group Posted Deepfake of Belgian Prime Minister Urging Climate Crisis Action

Loading...
Démocratie profonde : voici comment les élections modernes pourraient être décidées par de fausses nouvelles
weforum.org · 2020
  • La menace émergente des deepfakes pourrait avoir un impact sans précédent sur ce cycle électoral, soulevant de sérieuses questions sur l'intégrité des élections démocratiques, l'élaboration des politiques et notre société dans son ensemble.
  • Un nouveau programme éthique pour l'IA dans la publicité politique et le contenu sur les plateformes en ligne est nécessaire. Compte tenu de la nature transfrontalière du problème, l'agenda doit être soutenu par un consensus et une action mondiaux.
  • Les communautés et les individus peuvent également agir directement en établissant des normes plus élevées sur la façon de créer et d'interagir avec le contenu politique en ligne.

Dans quelques mois, les États-Unis éliront leur 46e président. Alors que certains s'inquiètent de savoir si les campagnes et les votes peuvent être effectués en toute sécurité pendant la pandémie de COVID-19, une autre question est tout aussi critique : combien de votes résulteront de l'influence manipulatrice de l'intelligence artificielle ?

Plus précisément, la menace émergente des deepfakes pourrait avoir un impact sans précédent sur ce cycle électoral, soulevant de sérieuses questions sur l'intégrité des élections, l'élaboration des politiques et notre société démocratique dans son ensemble.

Comprendre les deepfakes

Les deepfakes alimentés par l'IA ont le potentiel d'avoir des conséquences troublantes pour les élections américaines de 2020.

La technologie qui n'était au départ qu'un gadget provoquant des rires pour créer des vidéos de mash-up homebrew a récemment été suralimentée par les progrès de l'IA.

Aujourd'hui, des logiciels open source comme DeepFaceLab et Faceswap permettent à pratiquement toute personne disposant de [temps et accès au cloud computing](https ://arstechnica.com/science/2019/12/how-i-created-a-deepfake-of-mark-zuckerberg-and-star-treks-data/) pour déployer des processus d'apprentissage automatique sophistiqués et un rendu graphique sans aucun préalable développement.

Plus inquiétant encore, la technologie elle-même s'améliore à un rythme si rapide que les experts prédisent que les deepfakes pourront bientôt être impossibles à distinguer des vraies vidéos . Les résultats stupéfiants que l'IA peut créer aujourd'hui peuvent être attribués à des sauts herculéens dans un sous-domaine appelé Generative Adversarial Networks. Cette technologie permet aux réseaux de neurones de passer de la simple perception à la création.

Comme on peut s'y attendre avec la technologie virale, le nombre de vidéos deepfakes croît de manière exponentielle car la démocratisation continue de l'IA et du cloud computing rend les processus sous-jacents de plus en plus accessible.

Une nouvelle infodémie ?

Comme nous l'avons vu lors de la pandémie de COVID-19, la propagation contagieuse de la désinformation nécessite rarement plus qu'un semblant d'autorité accompagnant le message, peu importe à quel point le contenu peut être pernicieux ou objectivement dangereux pour le public.

Étant donné la facilité avec laquelle les deepfakes peuvent combiner de faux récits et informations avec des sources d'autorité fabriquées, ils ont un potentiel sans précédent d'induire en erreur, de désinformer et de manipuler, donnant à "vous n'en croirez pas vos yeux" un tout nouveau sens.

En fait, selon un récent rapport publié par Selon le Brookings Institute, les deepfakes sont en bonne voie non seulement pour déformer le discours démocratique, mais aussi pour éroder la confiance dans les institutions publiques au sens large.

Comment les deepfakes peuvent-ils devenir des armes électorales ?

Comment exactement les deepfakes pourraient-ils être transformés en armes lors d'une élection ? Pour commencer, des acteurs malveillants pourraient falsifier des preuves pour alimenter de fausses accusations et de faux récits. Par exemple, en introduisant des changements subtils dans comment un candidat prononce un discours par ailleurs authentique, cela pourrait être utilisé pour remettre en question le caractère, la forme physique et la santé mentale sans que la plupart des téléspectateurs ne le sachent mieux.

Les deepfakes pourraient également être utilisés pour créer des contenus fictifs entièrement nouveaux, y compris des déclarations controversées ou haineuses avec l'intention de jouer sur les divisions politiques, voire d'inciter à la violence.

Sans surprise, les deepfakes ont déjà été exploités dans d'autres pays pour déstabiliser les gouvernements et les processus politiques.

  • Au Gabon, l'armée a lancé un coup d'État finalement infructueux après la diffusion d'une vidéo apparemment fausse du dirigeant Ali Bongo a suggéré que le président n'était plus en assez bonne santé pour occuper ses fonctions.
  • En Malaisie, une vidéo prétendant montrer le ministre des Affaires économiques en train d'avoir des relations sexuelles a suscité un débat considérable sur la question de savoir si la vidéo était truquée ou non, ce qui a porté atteinte à la réputation du ministre. - En Belgique, un groupe politique a publié un deepfake du Premier ministre belge donnant un discours qui a lié l'épidémie de COVID-19 aux dommages environnementaux et a appelé à une action drastique contre le changement climatique.

La vérité peut gagner

À ce jour, nous sommes terriblement mal équipés pour faire face aux deepfakes.

Selon le Pew Research Center, près des deux tiers de la population américaine affirment que les faux contenus [créent beaucoup de confusion](https://www.pewresearch.org/fact-tank/2019/06/14/about- trois quarts-des-américains-favorisent-des-mesures-pour-restreindre-les-vidéos-et-images-modifiées/) à propos de la réalité politique. Pire encore, même nos meilleurs efforts pour corriger et vérifier les faux contenus ne pourraient en fin de compte servir qu'à [renforcer plutôt la diffusion de faux récits](https://www.inverse.com/innovation/how-deepfakes-could-swing- l'élection).

Pour que l'IA et la démocratie coexistent, nous devons de toute urgence garantir une compréhension commune de ce qui est vrai et créer un environnement partagé pour les faits à partir duquel nos opinions divergentes peuvent émerger en toute sécurité.

Ce dont on a le plus désespérément besoin, c'est d'un nouveau programme éthique pour l'IA dans la publicité politique et le contenu sur les plateformes en ligne. Compte tenu de la nature transfrontalière du problème, l'agenda doit être soutenu par un consensus et une action mondiaux.

Des initiatives telles que Responsible Use of Technology du Forum économique mondial, qui rassemblent des dirigeants de la tech pour discuter de l'utilisation éthique de leurs plateformes, sont un démarrage fort.

Au niveau plus local, les législatures ont commencé à suivre l'initiative de la Californie pour [interdire les deepfakes pendant les élections](https://www.theguardian.com/us-news/2019/oct/07/california-makes-deepfake-videos-illegal -mais-la-loi-peut-être-difficile-à-appliquer) et même Facebook a rejoint le combat avec [sa propre interdiction de certaines formes de contenu manipulé ](https://about.fb.com/news/2020/01 /enforcing-against-manipulated-media/) et un défi pour créer des technologies pour les repérer.

Le futur : réalité ou fiction ?

Pourtant, plus peut être fait.

Nous n'avons pas nécessairement besoin d'un changement de paradigme technologique ou réglementaire pour désarmer les deepfakes. Au lieu de cela, les communautés et les individus peuvent également agir directement en établissant des normes plus élevées sur la façon dont nous créons et interagissons nous-mêmes avec le contenu politique en ligne.

En fait, à moins que les électeurs eux-mêmes ne défendent les faits et la vérité dans le discours en ligne, il sera pratiquement impossible de provoquer un changement significatif, simplement en raison de la subjectivité inhérente aux plateformes en ligne qui désavantage la réalité.

Que nous le voulions ou non, les deepfakes sont là pour rester. Mais novembre 2020 pourrait marquer le moment où nous prendrons collectivement position contre les menaces que représente l'IA avant qu'il ne soit trop tard.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd