Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3068

Incidents associés

Incident 54317 Rapports
Purported AI-Generated Image of Explosion Near Pentagon Reportedly Triggers Brief Market Dip and Public Confusion

Loading...
Une fausse photo d'explosion au Pentagone a provoqué une véritable baisse de la bourse
mashable.com · 2023

Un deepfake d'une explosion au Pentagone qui a fait plonger le marché boursier a illustré les risques de désinformation de l'IA générative.

Lundi, une image apparemment générée par l'IA de ce qui ressemblait à une explosion à l'extérieur du Pentagone a circulé sur Twitter. Le département de police d'Arlington a rapidement démystifié l'image en tweetant : "Il n'y a AUCUNE explosion ou incident survenu dans ou à proximité de la réserve du Pentagone, et il n'y a pas de danger immédiat ni de danger pour le public."

Mais pas avant que le marché boursier n'ait chuté de 0,26 % avant de rebondir, selon [Insider(opens in a new tab)](https://www.insider.com/ai-generated-hoax-explosion-pentagon-viral-markets -trempé-2023-5).

On ne sait pas comment l'image a été créée, mais elle présente les signes révélateurs d'une image générée par l'IA. La clôture devant le bâtiment est floue et les colonnes semblent avoir des largeurs différentes. Tout détective des médias sociaux habitué à repérer des images photoshoppées de célébrités et d'influenceurs l'aurait remarqué, mais à mesure que l'IA générative continue de s'améliorer, les deepfakes seront plus difficiles à repérer.

Même avec la réponse rapide d'Arlington PD, le désordre d'un système de vérification de Twitter a aggravé le problème. L'un des comptes qui a tweeté l'image était un compte vérifié se faisant passer pour un fil d'actualités Bloomberg. Ce compte, appelé @BloombergFeed, a depuis été suspendu.

Les autres comptes qui ont tweeté l'image étaient @DeItaone et le compte RT, site appartenant aux médias d'État russes. Maintenant que n'importe qui peut payer pour être vérifié sur Twitter, des situations comme celle-ci sont la parfaite tempête de désinformation.

Un faux compte Twitter partage une fausse image qui entraîne de réelles conséquences. Bienvenue en 2023.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd