Incidents associés

Une fausse image semblant montrer une grande explosion près du Pentagone a été partagée sur les réseaux sociaux lundi, provoquant une brève baisse du marché boursier.
En quelques minutes, une vague de comptes de médias sociaux, dont certains comptes vérifiés, ont partagé la fausse image, amplifiant encore la confusion.
Les responsables ont confirmé plus tard qu'aucun incident de ce type ne s'était produit.
Les détectives des médias sociaux, dont Nick Waters de Bellingcat, un groupe de vérification des informations en ligne, ont rapidement signalé certains problèmes notables avec l'image, notamment :
- Qu'il n'y avait pas d'autres témoins de première main pour corroborer l'événement, en particulier dans une zone très fréquentée comme le Pentagone. "C'est pourquoi il est si difficile (je dirais effectivement impossible) de créer un faux crédible d'un tel événement", a tweeté Waters.
- Que le bâtiment lui-même semble sensiblement différent du Pentagone. Cela peut facilement être vérifié en utilisant des outils comme [Google Street View](https://www.google.com/maps/@38.8713299,-77.0595554,3a,75y,96.81h,91.71t/data=!3m7!1e1! 3m5!1s45OQvOj5MczxYcbzd5VE4A!2e0!6shttps:%2F%2Fstreetviewpixels-pa.googleapis.com%2Fv1%2Fthumbnail%3Fpanoid%3D45OQvOj5MczxYcbzd5VE4A%26cb_client%3Dmaps_sv.tactile.gps%26w% 3D203%26h%3D100%26lacet%3D148.97998%26tangage %3D0%26thumbfov%3D100!7i16384!8i8192) pour comparer les deux images.
- D'autres détails, y compris l'étrange lampadaire flottant et le poteau noir dépassant du trottoir, étaient un autre signe que l'image n'était pas ce qu'elle semblait être. L'intelligence artificielle a encore du mal à recréer des lieux sans introduire d'artefacts aléatoires.
Confiant que cette image prétendant montrer une "explosion près du pentagone" est générée par l'IA.
Découvrez la façade du bâtiment et la façon dont la clôture se fond dans les barrières de foule. Il n'y a pas non plus d'autres images, vidéos ou personnes postant en tant que témoins de première main. pic.twitter.com/t1YKQabuNL
— Nick Waters (@N_Waters89) 22 mai 2023
Comment repérer les images générées par l'IA et les fausses images
Il existe de nombreux outils d'IA génératifs comme Midjourney, Dall-e 2 et Stable Diffusion qui peuvent créer des images réalistes avec très peu d'effort.
Ces outils sont formés en examinant de grands volumes d'images réelles, mais comblent les lacunes avec leur propre interprétation lorsque les données de formation sont manquantes. Cela peut entraîner des personnes ayant des membres supplémentaires et des objets qui se transforment avec leur environnement.
Lorsque vous voyez des images en ligne censées montrer un événement d'actualité, il convient de garder à l'esprit ce qui suit :
- ** Les nouvelles ne se produisent pas dans le vide - ** Dans le cas d'une grande explosion ou d'un grand événement, attendez-vous à voir un afflux de rapports sur le terrain provenant de différentes personnes et sous différents angles.
- ** Qui télécharge le contenu - ** Consultez l'historique des publications du compte d'utilisateur. Est-ce que leur emplacement et le lieu de l'événement s'additionnent ? Regardez qui ils suivent et qui les suit. Pouvez-vous les contacter ou leur parler ?
- Utilisez des outils d'intelligence open source – Les outils de recherche d'images inversées tels que Google Images et TinEye peuvent vous permettre de télécharger une image et de déterminer où et quand elle a été utilisée pour la première fois. Il existe plusieurs autres outils que vous pouvez utiliser comme regarder en direct des [images de caméra de circulation](https://www.511virginia.org /nova) pour vérifier qu'un événement a lieu.
- Analysez l'image et son environnement - Recherchez des indices dans l'image, tels que des points de repère à proximité, des panneaux de signalisation et même les conditions météorologiques, pour vous aider à déterminer où et quand l'événement présumé aurait pu avoir lieu.
- ** Mains, yeux et posture - ** Lorsque vous traitez des images de personnes, portez une attention particulière à leurs yeux, leurs mains et leur posture générale. Les vidéos générées par l'IA qui imitent les gens, connues sous le nom de deep fakes, ont tendance à avoir des problèmes de clignotement, car la plupart des ensembles de données d'entraînement ne contiennent pas de visages avec les yeux fermés. Les mains qui ne saisissent pas correctement les objets ou les membres qui semblent anormalement tordus peuvent également aider à repérer le faux.
Pour plus d'informations sur la vérification des informations et les enquêtes de renseignement open source, l'Institut des médias d'Al Jazeera a publié une poignée de guides disponibles en [plusieurs langues] (https://institute.aljazeera.net/en/publications) disponibles en téléchargement ci-dessous.
- Trouver la vérité parmi les faux [PDF]
- Vérification des actualités - Un guide pratique [PDF]
- Enquêtes Open Source [PDF]
#Thread🧵 1/ Mettre en lumière les dangers des deepfakes : que s'est-il passé lorsqu'un faux compte Twitter avec un chèque bleu, prétendant être Bloomberg, a publié hier des "breaking news" choquantes…
— Revue de journalisme d'Al Jazeera (@AJR_English) 23 mai 2023
Source : Al Jazeera