Bienvenue dansla base de données des incidents d'IA
Incident 1340: Purported AI-Generated Image Falsely Depicting JD Vance and Usha Vance in Public Altercation Circulated on Social Media
“Does an image show JD Vance arguing with his wife, Usha, in a restaurant?”Dernier rapport
Claim:
A photo shared online in December 2025 authentically showed U.S. Vice President JD Vance arguing with his wife, Usha Vance, in a restaurant.
Rating:
Fake
In December 2025, an image circulated on social media purportedly showing U.S. Vice President JD Vance arguing with his wife, Usha Vance, in a restaurant.
The image appeared to show JD Vance wearing a white T-shirt and a stern expression while sitting across from Usha Vance. One Facebook user who shared it (archived) wrote:
Looks like things are not so good in Republicanistan. Usha is a liberal. Always has been. Apparently they were having and [sic] argument loud enough to quiet the restaurant. Why is he wearing a tee shirt?
The image circulated elsewhere on Facebook and X (archived here and here). In short, it was fake.
After Snopes initially published its story, YouTuber Keith Edwards reached out to confirm the image was a thumbnail he created for an October 2025 video, describing it as "fake." Edwards told us he used the artificial intelligence platform ChatGPT to create the image.
The thumbnail matched the image circulating on social media. In both, the man wore the same facial expression and the woman was positioned the same way. A reverse image search did not lead us to any earlier version of the fabricated image.
JD Vance himself appeared to support the conclusion that the image was fake in a Dec. 9 X post (archived), replying to a user who shared the image with a comment that seemed to poke fun at the rumor: "I always wear an undershirt when I go out in public to have a fight loudly with my wife."
We also ran the image through three AI-detection platforms: Hive, Sightengine and Image Whisperer. Sightengine estimated a 97% probability that the image was AI-generated, while Image Whisperer concluded with "high confidence" it was AI-generated.
Hive, however, flagged the image as "not likely to contain AI-generated or deepfake content." It's worth noting that these tools are not always accurate and their results should be interpreted with caution.
Prior to Edwards' confirmation, the team at GetReal Security, which specializes in authenticating digital media, also analyzed the image for Snopes.
Hany Farid, co-founder of GetReal and a professor at the University of California, Berkeley, told us that the image's low quality made forensic analysis difficult. However, the team found "biometric anomalies" suggesting the image "may be AI-generated or is simply a photo of someone that resembles [JD] Vance."
"In particular, the facial features in the image do not match contemporaneous images of Vance," Farid added. Contemporaneous images are photos taken around the same time that are used to verify another image's authenticity.
Matthew Stamm, an associate professor of electrical and computer engineering at Drexel University, told Snopes that he and his doctoral student analyzed the image to determine whether it was AI-generated, using a specialized forensic tool that detects subtle "fingerprints" left by generative AI. Stamm said the tool "determined with roughly 95% confidence that it was unable to detect traces left by generative AI."
However, he cautioned that this does not prove the image is real and cannot definitively rule out AI generation. Factors such as its size, low resolution and repeated sharing on social media made the analysis difficult, changing "the quality of the forensic traces that we analyze, similar to how fingerprints at a crime scene might be smudged," Stamm explained.
The fabricated image spread online amid rumors of a rift in the Vances' marriage, which began to spread in October 2025. Photos of Usha Vance without her wedding ring taken the following month further fueled speculation.
However, a spokesperson told USA Today in a Nov. 21 statement that Usha Vance "is a mother of three young children, who does a lot of dishes, gives lots of baths, and forgets her ring sometimes." Other publicly available Getty Images from November showed Usha Vance wearing her wedding ring.
In a Dec. 4 interview with NBC News, JD Vance said the couple's marriage is "as strong as it's ever been."
Incident 1325: Des vidéos truquées générées par IA, imitant Elon Musk et l'émission Dragon's Den, auraient été utilisées dans une escroquerie aux investissements en cryptomonnaies ciblant des victimes canadiennes.
“Deux Canadiens perdent 2,3 millions de dollars dans une arnaque aux cryptomonnaies utilisant une technologie deepfake basée sur l'IA.”
Deux Canadiens, l'un de l'Ontario et l'autre de l'Île-du-Prince-Édouard, ont perdu au total 2,3 millions de dollars dans une arnaque aux cryptomonnaies utilisant une technologie de deepfake. La victime ontarienne a perdu 1,7 million de dollars après avoir été trompée par une fausse vidéo d'Elon Musk, tandis que l'autre a perdu 600 000 dollars après avoir visionné une vidéo faussement liée à l'émission Dragon's Den. Le rapport a été mis à jour le 21 décembre 2025.
Mise à jour du 21 décembre 2025 à 12 h 31 UTC : le rapport détaille que deux Canadiens, l'un de Markham (Ontario) et l'autre de l'Île-du-Prince-Édouard, ont perdu au total 2,3 millions de dollars dans une arnaque aux cryptomonnaies utilisant une technologie de deepfake. Selon W5, des vidéos générées par IA et des tableaux de bord falsifiés ont été utilisés pour persuader les victimes que de petits dépôts produisaient de réels profits.
Comment les victimes ont été piégées par des imposteurs utilisant l'IA
Une femme de 51 ans, originaire de Markham, a visionné sur Facebook une vidéo où Elon Musk semblait parler d'une opportunité d'investissement dans les cryptomonnaies. Elle a envoyé 250 $ au départ et, deux jours plus tard, un gain de 30 $ lui a été annoncé. Incitée à déposer davantage d'argent, elle a cru aux documents qui semblaient officiels.
« J'ai demandé un prêt hypothécaire de près d'un million de dollars. J'ai fait le retrait et j'ai commencé à leur envoyer l'argent. Vous voyez ? 350 000 $, puis 350 000 $. » – Victime de Markham, en Ontario.
Les escrocs ont ensuite affiché un solde de 3 millions de dollars et ont exigé le paiement des taxes et des frais avant tout retrait. Pour couvrir ces frais, elle a emprunté 500 000 $ à sa famille et à ses amis et a utilisé ses cartes de crédit au maximum, ce qui porte ses pertes totales à 1,7 million de dollars.
Un homme de l'Île-du-Prince-Édouard a vu une vidéo qui prétendait renvoyer à l'émission télévisée « Dragon's Den » et suggérait d'investir dès 250 $. Il a augmenté ses transferts au fil du temps, allant jusqu'à envoyer 10 000 $ par jour, et a finalement perdu 600 000 $. Comme dans le premier cas, un faux solde de plus d'un million de dollars a été affiché et les tentatives de retrait ont été bloquées.
Leurs pertes totales s'élèvent à 2,3 millions de dollars. Selon le Centre antifraude du Canada, les Canadiens ont perdu 1,2 milliard de dollars dans des arnaques à l'investissement au cours des trois dernières années, et l'organisme estime que les pertes réelles sont plus importantes.
Rapports sur des réseaux de fraude à grande échelle
L'ancienne procureure américaine Erin West a déclaré que la fraude est organisée comme une industrie et que de nombreuses personnes qui appellent sont elles-mêmes victimes, victimes de trafic humain et envoyées dans des centres d'escroquerie en Asie du Sud-Est, où elles sont contraintes de travailler de longues heures. Celles qui refusent ou tentent de s'échapper sont battues ou torturées, selon son témoignage.
Mme West a décrit sa visite de centres de cyberfraude aux Philippines et a déclaré que leur ampleur reflète des opérations de niveau industriel qui reposent sur la manipulation psychologique, la technologie et le trafic d'êtres humains. Elle a averti qu'à mesure que les outils de deepfake deviennent moins chers et plus accessibles, des arnaques similaires sont susceptibles de se développer à l'échelle mondiale, rendant plus difficile pour les investisseurs ordinaires de distinguer les opportunités légitimes des fraudes basées sur l'IA.
Incident 1326: Les robotaxis Waymo auraient contribué aux embouteillages lors de la panne de courant de PG&E à San Francisco.
“Waymo explique pourquoi les robotaxis sont tombés en panne lors de la coupure de courant à San Francisco.”
Waymo a reconnu mardi que ses voitures autonomes avaient contribué aux embouteillages lors de la panne de courant massive qui a touché San Francisco le week-end dernier. L'entreprise a expliqué que l'ampleur de la perturbation avait submergé certaines parties de son réseau et l'avait incitée à mettre en œuvre immédiatement des modifications logicielles et des mesures d'intervention d'urgence.
La panne, provoquée par un incendie dans un poste de transformation de PG&E, a privé d'électricité près d'un tiers de la ville samedi, mettant hors service des centaines de feux de circulation et engendrant des embouteillages monstres sur les principaux axes routiers. Alors que des policiers étaient déployés pour réguler manuellement la circulation aux intersections, les robotaxis Waymo immobilisés sont devenus l'un des signes les plus visibles des perturbations qui ont touché toute la ville, suscitant l'attention des habitants et des élus.
Dans un article de blog publié mardi (https://waymo.com/blog/2025/12/autonomously-navigating-the-real-world), Waymo a expliqué que le nombre sans précédent de feux de circulation hors service avait mis à rude épreuve les systèmes de sécurité conçus pour des pannes de moindre ampleur. Ses véhicules sont programmés pour considérer les feux défectueux comme des intersections à quatre stops, mais dans certains cas, ils demandent une « vérification de confirmation à distance » afin de garantir le choix le plus sûr.
« Bien que nous ayons réussi à franchir plus de 7 000 feux hors service samedi, la panne a entraîné une forte augmentation de ces demandes », a indiqué l'entreprise, ajoutant que les retards de confirmation avaient contribué à l'engorgement des rues déjà saturées.
Alors que la panne de courant persistait et que le Département de gestion des urgences de San Francisco exhortait les habitants à rester chez eux, Waymo a annoncé la suspension temporaire de son service et a demandé à ses véhicules de se garer afin d'être ramenés progressivement à leurs dépôts.
Le maire Daniel Lurie a déclaré que la ville était en contact direct avec l'entreprise, filiale d'Alphabet (la maison mère de Google), face à l'aggravation de la situation.
« J'ai appelé le PDG de Waymo et je lui ai demandé de retirer immédiatement les véhicules de la circulation », a déclaré M. Lurie lors d'une conférence de presse lundi. « Ils ont fait preuve de compréhension… mais nous avons besoin qu'ils soient plus proactifs. »
Cet incident a relancé le débat sur le comportement des véhicules autonomes lors de situations d'urgence majeures. Les élus de San Francisco ont demandé une audition sur la réponse de Waymo, et un organisme de réglementation californien a annoncé lundi examiner les incidents impliquant des robotaxis immobilisés pendant la panne.
Waymo a annoncé le déploiement de mises à jour logicielles pour l'ensemble de sa flotte. Ces mises à jour fournissent aux véhicules des informations plus précises sur les pannes de courant régionales, leur permettant ainsi de traverser les intersections avec plus d'assurance.
L'entreprise a également indiqué mettre à jour ses plans d'intervention d'urgence, renforcer sa coordination avec les autorités municipales et poursuivre la formation des secouristes. Plus de 25 000 secouristes à travers le monde ont déjà été formés à l'utilisation de ses véhicules.
« Bien que la défaillance du réseau électrique ait été importante, nous nous engageons à ce que notre technologie s'adapte à la circulation lors de tels événements », a déclaré un porte-parole de Waymo. « Nous nous attachons à intégrer rapidement les enseignements tirés de cet incident et nous avons à cœur de gagner et de conserver la confiance des communautés que nous desservons au quotidien. »
Incident 1333: Des images et des vidéos prétendument générées par l'IA auraient diffusé de fausses informations concernant la capture de Nicolás Maduro sur X
“Après la destitution de Maduro, les contenus générés par l'IA se répandent, brouillant la frontière entre réalité et fiction.”
Suite à l'opération militaire américaine au Venezuela qui a conduit à la destitution du président Nicolas Maduro, des vidéos générées par intelligence artificielle montrant des Vénézuéliens en liesse dans les rues sont devenues virales sur les réseaux sociaux.
Ces clips, mettant en scène des foules en liesse, ont cumulé des millions de vues sur des plateformes majeures comme TikTok, Instagram et X.
L'un des premiers clips, et l'un des plus partagés sur X, a été publié par un compte nommé « Wall Street Apes », qui compte plus d'un million d'abonnés sur la plateforme.
La publication (https://x.com/WallStreetApes/status/2007586063876010289) montre des Vénézuéliens en larmes de joie remerciant les États-Unis et le président Donald Trump d'avoir destitué Maduro.
La vidéo a depuis été signalée par la communauté, une fonctionnalité de vérification des faits participative de X qui permet aux utilisateurs d'apporter des précisions aux publications qu'ils jugent trompeuses. Le message indiquait : « Cette vidéo est générée par une IA et est actuellement présentée comme une information factuelle dans le but d’induire les gens en erreur. »
La vidéo a été visionnée plus de 5,6 millions de fois et partagée par au moins 38 000 comptes, dont celui du magnat des affaires Elon Musk, avant que celui-ci ne la supprime.
CNBC n’a pas pu confirmer l’origine de la vidéo. Cependant, les vérificateurs de faits de la BBC et de l’AFP ont indiqué que la première version connue de la vidéo était apparue sur le compte TikTok @curiousmindusa, qui publie régulièrement du contenu généré par une IA.
Avant même la diffusion de ces vidéos, des images générées par IA montrant Maduro aux mains des Américains circulaient déjà avant que l'administration Trump ne publie une image authentique du dirigeant capturé.
L'ancien président vénézuélien a été capturé le 3 janvier 2026, à la suite de frappes aériennes et d'un raid terrestre menés par les forces américaines, une opération qui a fait la une de l'actualité internationale en ce début d'année.
Outre les vidéos générées par l'IA, l'équipe de vérification des faits de l'AFP a également signalé plusieurs exemples de contenus trompeurs concernant la destitution de Maduro, notamment des images de célébrations au Chili présentées à tort comme des scènes vénézuéliennes.
Cette semaine, Trump a également republié plusieurs vidéos relatives aux célébrations vénézuéliennes sur Truth Social, bien que CNBC ait confirmé que nombre d'entre elles avaient été filmées hors du Venezuela, dans des villes comme Panama et Buenos Aires.
L'une des vidéos partagées par le président (https://truthsocial.com/@realDonaldTrump/posts/115841047136997408) contenait d'anciennes images apparues en ligne dès juillet 2024 (https://www.facebook.com/watch/?v=797885532523121) et n'avait donc aucun lien avec la destitution récente de Maduro.
La diffusion de ce type de désinformation autour d'événements d'actualité majeurs n'est pas nouvelle. Des contenus faux ou trompeurs similaires ont été diffusés lors des conflits israélo-palestinien et russo-ukrainien.
Cependant, la portée massive des contenus générés par IA concernant les récents développements au Venezuela illustre de façon frappante le rôle croissant de l'IA comme outil de désinformation.
Des plateformes telles que Sora et Midjourney ont considérablement simplifié la création rapide de vidéos hyperréalistes et leur diffusion comme authentiques dans le contexte chaotique de l'actualité en temps réel. Les créateurs de ce type de contenu cherchent souvent à amplifier certains discours politiques ou à semer la confusion au sein du public international.
L'année dernière, des vidéos générées par IA montrant des femmes se plaignant de la perte de leurs allocations du Programme d'aide alimentaire supplémentaire (SNAP) lors d'une paralysie des services gouvernementaux sont devenues virales. L'une de ces vidéos a trompé Fox News, qui l'a présentée comme authentique dans un article qui a ensuite été supprimé.
Face à ces tendances, les entreprises de médias sociaux subissent une pression croissante pour renforcer leurs efforts d'étiquetage des contenus potentiellement trompeurs générés par IA.
L'année dernière, le gouvernement indien a proposé une loi rendant obligatoire l'étiquetage des deepfakes, tandis que l'Espagne a approuvé des amendes pouvant atteindre 35 millions d'euros pour les contenus générés par l'IA non étiquetés.
Pour répondre à ces préoccupations, les principales plateformes, dont TikTok et Meta, ont déployé des outils de détection et d'étiquetage de l'IA, avec des résultats mitigés.
CNBC a pu identifier certaines vidéos trompeuses sur TikTok concernant le Venezuela, signalées comme générées par l'IA. Cependant, d'autres vidéos, semblant être fabriquées ou modifiées numériquement, ne comportaient pas encore d'avertissement.
Dans le cas de X, la plateforme s'appuie principalement sur les commentaires de la communauté pour l'étiquetage des contenus. Toutefois, certains critiques estiment que le système réagit souvent trop lentement pour empêcher la propagation de la désinformation générée par l'IA avant d'être identifiée.
Adam Mosseri, qui supervise Instagram et Threads, a reconnu le défi auquel sont confrontés les réseaux sociaux dans un récent article. « Toutes les grandes plateformes font du bon travail pour identifier les contenus générés par l'IA, mais leurs performances se dégraderont avec le temps, à mesure que l'IA deviendra plus performante pour imiter la réalité », a-t-il déclaré.
« De plus en plus de gens pensent, comme moi, qu'il sera plus pratique d'identifier les vrais médias que les faux », a-t-il ajouté.
— Victoria Yeo de CNBC a contribué à cet article.
