Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2014

Incidents associés

Incident 3282 Rapports
Fake Accounts Using GAN Faces Deployed by Propaganda Campaign on Social Platforms

Loading...
La loi sur la propagande pro-chinoise a utilisé de faux abonnés créés avec des images générées par l'IA
pcmag.com · 2020

Une campagne de propagande pro-chinoise qui dénonce les États-Unis sur les réseaux sociaux a créé de faux abonnés avec l'aide de AI-generated images.

Depuis juin, la campagne publie des vidéos en anglais critiquant l'administration Trump sur Facebook, Twitter et YouTube, [selon(ouvre dans une nouvelle fenêtre)](https://www.graphika.com/reports/spamouflage- dragon-goes-to-america/) à la société de recherche Graphika, qui suit les activités du groupe.

Graphika surnomme la campagne "Spamouflage Dragon". Et comme d'autres activités de propagande, le groupe pro-Chine utilise de faux comptes pour partager et publier des commentaires sur son contenu afin de l'aider à gagner en diffusion. Cependant, Graphika a remarqué quelque chose d'étrange avec les photos de profil appartenant à ces faux comptes : dans certains cas, les portraits semblent être l'œuvre d'un programme d'IA conçu pour créer des visages humains artificiels.

À première vue, les photos de profil semblent légitimes. Mais Graphika a repéré d'étranges points communs dans les images, telles que les arrière-plans flous et la correspondance entre les positions du globe oculaire dans les photos de profil. Cela indique que les photos étaient probablement le produit d'un "réseau contradictoire génératif" ou [GAN] (https://www.pcmag.com/news/nvidias-ai-creates-artificial-human-faces-from-celebrity-photos) , une technologie d'apprentissage automatique apte à créer des visages humains apparemment réels, mais finalement faux.

Les GAN peuvent générer un visage synthétique en étudiant des images existantes de personnes réelles et en apprenant à recréer les traits du visage dans une nouvelle image. Cependant, les résultats ne sont pas toujours parfaits. Le programme d'IA a souvent du mal à rendre les boucles d'oreilles et autres objets autour du visage de la fausse personne. Les arrière-plans sont également laissés vagues.

Néanmoins, la technologie a déclenché des craintes concernant de mauvais acteurs exploitant l'IA- créé des médias pour les aider à diffuser la désinformation sur les réseaux sociaux. Par exemple, une recherche d'image inversée peut souvent révéler si l'utilisateur la photo de profil est légitime ou a été réutilisée ailleurs. Mais la même chose ne peut pas être faite pour une photo fraîchement générée par une IA.

Dans le cas de Spamouflage Dragon, le groupe pro-Chine a utilisé les photos générées par l'IA pour créer de faux abonnés sur Twitter et YouTube. Cependant, la campagne elle-même était plutôt médiocre, selon Graphika. "Les vidéos ont été faites maladroitement, marquées par des erreurs de langage et des voix off automatisées maladroites", a déclaré la société de recherche dans son [rapport(s'ouvre dans une nouvelle fenêtre)](https://public-assets.graphika.com/reports/ graphika_report_spamouflage_dragon_goes_to_america.pdf).

Les enregistrements texte-voix assistés par ordinateur étaient si mauvais que certaines vidéos prononçaient les États-Unis comme "nous". D'autres erreurs de langage incluent l'utilisation de titres et de sous-titres mentionnant "Public blâmé Trump sinaction" et "très doué pour être espiègle".

En conséquence, les vidéos n'ont reçu aucun engagement de la part de vrais utilisateurs de médias sociaux. La campagne s'est déroulée de juin à début août, publiant des vidéos critiquant l'interdiction de TikTok par le président Trump et son approche du COVID-19 . Cependant, les sociétés de médias sociaux ont depuis supprimé les vidéos du groupe et les comptes d'utilisateurs affiliés.

On ne sait pas si le gouvernement chinois était derrière la campagne. Cependant, les responsables du renseignement américain [ont mis en garde(s'ouvre dans une nouvelle fenêtre)](https://www.npr.org/2020/08/07/900245813/u-s-intelligence-warns-china-opposes-trump-reelection-russia- travaille-contre-biden) la semaine dernière que les gouvernements étrangers - dont la Chine, la Russie et l'Iran - tenteront d'influencer l'opinion publique américaine pour influencer la prochaine élection présidentielle.

Graphika dit que ce n'est pas la première fois que l'entreprise a rencontré(ouvre dans une nouvelle fenêtre) une campagne de propagande incorporant des photos générées par l'IA dans leurs régimes. Mais la société met en garde : "Compte tenu de la facilité avec laquelle les acteurs de la menace peuvent désormais utiliser des services accessibles au public pour générer de fausses images de profil, cette tactique est susceptible de devenir de plus en plus répandue".

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd