Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 6896

Loading...
L'IA diffuse et contre la désinformation sur les manifestations à Los Angeles
time.com · 2025

Alors que des milliers de manifestants descendent dans les rues du comté de Los Angeles pour protester contre les rafles de l'Immigration and Customs Enforcement (ICE), la désinformation se propage à grande vitesse sur Internet.

Ces manifestations, et la mobilisation par le président Donald Trump de la Garde nationale et des Marines en réponse, constituent l'un des premiers événements médiatiques majeurs et controversés de cette nouvelle ère où les outils d'intelligence artificielle sont omniprésents dans la vie numérique. Alors que l'actualité a suscité de vifs débats et des échanges en ligne, ces outils ont joué un rôle prépondérant dans le discours. Les utilisateurs des réseaux sociaux ont utilisé l'intelligence artificielle pour créer des deepfakes et diffuser de la désinformation, mais aussi pour vérifier les faits et réfuter les fausses allégations.

Voici comment l'IA a été utilisée lors des manifestations à Los Angeles.

Deepfakes


Des images provocatrices et authentiques des manifestations ont captivé l'attention du monde entier cette semaine, notamment celle d'un manifestant brandissant un drapeau mexicain et celle d'un journaliste blessé à la jambe par une balle en caoutchouc tirée par un policier. Parallèlement, quelques vidéos truquées générées par l'IA ont également circulé.

Ces deux dernières années, les outils de création de ces vidéos ont connu une amélioration rapide, permettant aux utilisateurs de créer en quelques minutes des deepfakes convaincants. Plus tôt ce mois-ci, par exemple, le magazine TIME a utilisé le nouvel outil Veo 3 de Google pour démontrer comment il peut servir à créer des vidéos trompeuses ou incendiaires sur des événements d'actualité.

Parmi les vidéos qui ont circulé massivement la semaine dernière, on trouve celle d'un soldat de la Garde nationale nommé « Bob » qui se filmait « en service » à Los Angeles, se préparant à gazer des manifestants. Cette vidéo a été visionnée plus d'un million de fois, selon France 24, mais semble avoir depuis été supprimée de TikTok. Des milliers de personnes ont commenté la vidéo, remerciant « Bob » pour son service, sans se rendre compte que ce personnage n'existait pas.

De nombreuses autres images trompeuses ont circulé, non pas grâce à l'intelligence artificielle, mais grâce à des méthodes bien plus rudimentaires. Le sénateur républicain Ted Cruz du Texas, par exemple, Republié une vidéo sur X initialement partagée par l'acteur conservateur James Des images diffusées sur TikTok semblaient montrer une manifestation violente avec des voitures en feu, mais il s'agissait en réalité d'une vidéo datant de 2020. Une autre publication virale montrait une palette de briques, que l'auteur prétendait être destinée à des « militants démocrates ». Or, la photo a été attribuée à un fournisseur de matériaux de construction malaisien.

Vérification des faits


Dans les deux cas, des utilisateurs de TikTok ont répondu aux publications originales en demandant à Grok, l'IA d'Elon Musk, si les affirmations étaient vraies. Grok est devenu une source majeure de vérification des faits pendant les manifestations : de nombreux utilisateurs de X s’y sont fiés, ainsi qu’à d’autres modèles d’IA, parfois plus qu’aux journalistes professionnels, pour vérifier les affirmations relatives aux manifestations de Los Angeles, notamment concernant l’ampleur des dommages collatéraux causés par ces manifestations.

Grok a démenti à la fois la publication de Cruz et celle concernant les briques. En réponse au sénateur du Texas, l’IA a écrit : « La vidéo a probablement été prise le 30 mai 2020… Bien qu’elle montre des violences, de nombreuses manifestations ont été pacifiques, et l’utilisation d’images anciennes aujourd’hui peut induire en erreur. » En réponse à la photo de briques, Grok a écrit : « La photo de briques provient d'une entreprise malaisienne de matériaux de construction, comme l'ont confirmé des commentaires de la communauté et des sources de vérification des faits telles que The Guardian et PolitiFact. Elle a été utilisée à mauvais escient pour affirmer faussement que des organisations financées par Soros avaient placé des briques près des centres de détention de l'ICE (Immigration and Customs Enforcement) américains lors de manifestations. »

Cependant, Grok et d'autres outils d'IA se sont déjà trompés, ce qui en fait une source d'information peu fiable. Grok a insinué à tort qu'une photo montrant des soldats de la Garde nationale dormant à même le sol à Los Angeles, partagée par Newsom, était une photo recyclée d'Afghanistan datant de 2021. ChatGPT a tenu les mêmes propos. Ces accusations ont été relayées par des personnalités influentes de droite comme Laura Loomer. En réalité, le San Francisco Chronicle avait publié en premier la photo, après l'avoir obtenue en exclusivité, et en avait vérifié l'authenticité.

Grok a par la suite corrigé son erreur et présenté ses excuses.

« Je suis Grok (https://x.com/grok/status/1932297372476018737), conçu pour rechercher la vérité, pas pour colporter des fables. Si j’ai dit que ces photos provenaient d’Afghanistan, c’était une erreur : mes données d’entraînement sont un véritable fouillis d’informations trouvées sur Internet, et il m’arrive de me tromper », a déclaré Grok dans une publication sur X, en réponse à un message concernant la désinformation.

« Le climat informationnel dysfonctionnel dans lequel nous vivons aggrave sans aucun doute la difficulté pour le public de comprendre la situation actuelle des manifestations à Los Angeles et les actions du gouvernement fédéral, qui a déployé des militaires pour les réprimer », affirme Kate Ruane, directrice du programme Liberté d’expression du Centre pour la démocratie et la technologie.

Nina Brown, professeure à la Newhouse School of Public Communications de l'Université de Syracuse, estime qu'il est « très inquiétant » que l'on se fie à l'IA pour vérifier les informations, plutôt que de se tourner vers des sources fiables comme les journalistes, car l'IA « n'est pas une source d'information fiable à l'heure actuelle ».

« Elle offre de nombreuses applications incroyables et sa précision s'améliore de minute en minute, mais elle ne remplace absolument pas un véritable vérificateur de faits », affirme Brown. « Le rôle des journalistes et des médias est d'être les yeux et les oreilles du public sur ce qui se passe autour de nous, et de constituer une source d'information fiable. Il est donc très préoccupant que l'on se tourne vers un outil d'IA générative plutôt que vers le travail des journalistes sur le terrain. »

Brown se dit de plus en plus inquiète de la manière dont la désinformation se propagera à l'ère de l'IA.

« Ce qui m’inquiète davantage, c’est la propension des gens à croire ce qu’ils voient sans enquête – à prendre les choses pour argent comptant – et les progrès incroyables de l’IA qui permettent aux utilisateurs non experts de créer des vidéos incroyablement réalistes qui sont en réalité trompeuses ; il s’agit de deepfakes, ce qui n’est pas réel », explique Brown.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd