Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3063

Incidents associés

Incident 54317 Rapports
Purported AI-Generated Image of Explosion Near Pentagon Reportedly Triggers Brief Market Dip and Public Confusion

Loading...
Une fausse photo d'explosion au Pentagone déclenche une chute de la bourse
globalvillagespace.com · 2023

La diffusion récente d'une image deepfake sur Twitter représentant une explosion à l'extérieur du Pentagone illustre les risques de désinformation associés à l'IA générative. L'image, qui semblait être générée par l'IA, a fait chuter le marché boursier de 0,26 % avant de rebondir. Le département de police d'Arlington a rapidement démystifié l'image, déclarant qu'il n'y avait pas eu d'explosion ou d'incident sur ou à proximité de la réserve du Pentagone et qu'il n'y avait pas de danger immédiat ni de danger pour le public.

On ne sait pas comment l'image a été créée, mais elle porte les signes révélateurs d'une image générée par l'IA. La clôture devant le bâtiment est floue et les colonnes semblent avoir des largeurs différentes. Alors que les détectives des médias sociaux habitués à repérer des images photoshoppées de célébrités et d'influenceurs ont peut-être remarqué ces écarts, à mesure que l'IA générative continue de s'améliorer, les deepfakes deviendront de plus en plus difficiles à repérer.

Malgré la réponse rapide du PD d'Arlington, le système de vérification de Twitter a aggravé le problème. L'un des comptes qui a tweeté l'image était un compte vérifié se faisant passer pour un fil d'actualités Bloomberg. Le compte, appelé @BloombergFeed, a depuis été suspendu. Les autres comptes qui ont tweeté l'image étaient @DeItaone et le site russe RT, propriété des médias d'État. Avec n'importe qui maintenant capable de payer pour être vérifié sur Twitter, des situations comme celle-ci sont la parfaite tempête de désinformation.

Cet incident met en évidence la nécessité d'une sensibilisation et d'une éducation accrues sur les deepfakes et leur impact potentiel sur la société. Les deepfakes sont des images, des vidéos ou des enregistrements audio générés par l'IA qui sont conçus pour tromper les téléspectateurs en leur faisant croire qu'ils sont réels. Ils peuvent être utilisés à diverses fins, notamment la propagande politique, la pornographie de vengeance et la fraude financière.

Les conséquences potentielles des deepfakes sont importantes. Ils peuvent causer des dommages à la réputation, des pertes financières et même des dommages physiques. Par exemple, une vidéo deepfake pourrait être utilisée pour inciter à la violence ou déclencher un conflit entre nations.

Pour lutter contre les risques liés aux deepfakes, il est essentiel de développer des technologies capables de détecter et d'empêcher leur création et leur diffusion. Cela comprend le développement d'algorithmes capables d'identifier les deepfakes et d'éduquer le public sur la façon de les repérer.

Il est également important d'établir des directives et des réglementations claires concernant l'utilisation des deepfakes. Cela inclut les lois qui interdisent la création et la diffusion de deepfakes à des fins malveillantes et des directives pour les plateformes de médias sociaux sur la façon de gérer le contenu deepfake.

En conclusion, la diffusion récente d'une image deepfake sur Twitter qui dépeignait une explosion à l'extérieur du Pentagone met en évidence les risques associés à l'IA générative et la nécessité d'une sensibilisation et d'une éducation accrues autour des deepfakes. Bien que les technologies de détection et de prévention des deepfakes en soient encore à leurs débuts, il est essentiel d'établir des directives et des réglementations claires concernant leur utilisation afin de prévenir leurs dommages potentiels.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd