Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 6790

Incidents associés

Incident 13332 Rapports
Purportedly AI-Generated Images and Videos Reportedly Spread Misinformation About Nicolás Maduro's Capture on X

Loading...
Après la destitution de Maduro, les contenus générés par l'IA se répandent, brouillant la frontière entre réalité et fiction.
cnbc.com · 2026

Suite à l'opération militaire américaine au Venezuela qui a conduit à la destitution du président Nicolas Maduro, des vidéos générées par intelligence artificielle montrant des Vénézuéliens en liesse dans les rues sont devenues virales sur les réseaux sociaux.

Ces clips, mettant en scène des foules en liesse, ont cumulé des millions de vues sur des plateformes majeures comme TikTok, Instagram et X.

L'un des premiers clips, et l'un des plus partagés sur X, a été publié par un compte nommé « Wall Street Apes », qui compte plus d'un million d'abonnés sur la plateforme.

La publication (https://x.com/WallStreetApes/status/2007586063876010289) montre des Vénézuéliens en larmes de joie remerciant les États-Unis et le président Donald Trump d'avoir destitué Maduro.

La vidéo a depuis été signalée par la communauté, une fonctionnalité de vérification des faits participative de X qui permet aux utilisateurs d'apporter des précisions aux publications qu'ils jugent trompeuses. Le message indiquait : « Cette vidéo est générée par une IA et est actuellement présentée comme une information factuelle dans le but d’induire les gens en erreur. »

La vidéo a été visionnée plus de 5,6 millions de fois et partagée par au moins 38 000 comptes, dont celui du magnat des affaires Elon Musk, avant que celui-ci ne la supprime.

CNBC n’a pas pu confirmer l’origine de la vidéo. Cependant, les vérificateurs de faits de la BBC et de l’AFP ont indiqué que la première version connue de la vidéo était apparue sur le compte TikTok @curiousmindusa, qui publie régulièrement du contenu généré par une IA.

Avant même la diffusion de ces vidéos, des images générées par IA montrant Maduro aux mains des Américains circulaient déjà avant que l'administration Trump ne publie une image authentique du dirigeant capturé.

L'ancien président vénézuélien a été capturé le 3 janvier 2026, à la suite de frappes aériennes et d'un raid terrestre menés par les forces américaines, une opération qui a fait la une de l'actualité internationale en ce début d'année.

Outre les vidéos générées par l'IA, l'équipe de vérification des faits de l'AFP a également signalé plusieurs exemples de contenus trompeurs concernant la destitution de Maduro, notamment des images de célébrations au Chili présentées à tort comme des scènes vénézuéliennes.

Cette semaine, Trump a également republié plusieurs vidéos relatives aux célébrations vénézuéliennes sur Truth Social, bien que CNBC ait confirmé que nombre d'entre elles avaient été filmées hors du Venezuela, dans des villes comme Panama et Buenos Aires.

L'une des vidéos partagées par le président (https://truthsocial.com/@realDonaldTrump/posts/115841047136997408) contenait d'anciennes images apparues en ligne dès juillet 2024 (https://www.facebook.com/watch/?v=797885532523121) et n'avait donc aucun lien avec la destitution récente de Maduro.

La diffusion de ce type de désinformation autour d'événements d'actualité majeurs n'est pas nouvelle. Des contenus faux ou trompeurs similaires ont été diffusés lors des conflits israélo-palestinien et russo-ukrainien.

Cependant, la portée massive des contenus générés par IA concernant les récents développements au Venezuela illustre de façon frappante le rôle croissant de l'IA comme outil de désinformation.

Des plateformes telles que Sora et Midjourney ont considérablement simplifié la création rapide de vidéos hyperréalistes et leur diffusion comme authentiques dans le contexte chaotique de l'actualité en temps réel. Les créateurs de ce type de contenu cherchent souvent à amplifier certains discours politiques ou à semer la confusion au sein du public international.

L'année dernière, des vidéos générées par IA montrant des femmes se plaignant de la perte de leurs allocations du Programme d'aide alimentaire supplémentaire (SNAP) lors d'une paralysie des services gouvernementaux sont devenues virales. L'une de ces vidéos a trompé Fox News, qui l'a présentée comme authentique dans un article qui a ensuite été supprimé.

Face à ces tendances, les entreprises de médias sociaux subissent une pression croissante pour renforcer leurs efforts d'étiquetage des contenus potentiellement trompeurs générés par IA.

L'année dernière, le gouvernement indien a proposé une loi rendant obligatoire l'étiquetage des deepfakes, tandis que l'Espagne a approuvé des amendes pouvant atteindre 35 millions d'euros pour les contenus générés par l'IA non étiquetés.

Pour répondre à ces préoccupations, les principales plateformes, dont TikTok et Meta, ont déployé des outils de détection et d'étiquetage de l'IA, avec des résultats mitigés.

CNBC a pu identifier certaines vidéos trompeuses sur TikTok concernant le Venezuela, signalées comme générées par l'IA. Cependant, d'autres vidéos, semblant être fabriquées ou modifiées numériquement, ne comportaient pas encore d'avertissement.

Dans le cas de X, la plateforme s'appuie principalement sur les commentaires de la communauté pour l'étiquetage des contenus. Toutefois, certains critiques estiment que le système réagit souvent trop lentement pour empêcher la propagation de la désinformation générée par l'IA avant d'être identifiée.

Adam Mosseri, qui supervise Instagram et Threads, a reconnu le défi auquel sont confrontés les réseaux sociaux dans un récent article. « Toutes les grandes plateformes font du bon travail pour identifier les contenus générés par l'IA, mais leurs performances se dégraderont avec le temps, à mesure que l'IA deviendra plus performante pour imiter la réalité », a-t-il déclaré.

« De plus en plus de gens pensent, comme moi, qu'il sera plus pratique d'identifier les vrais médias que les faux », a-t-il ajouté.

— Victoria Yeo de CNBC a contribué à cet article.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd