Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4163

Incidents associés

Incident 8178 Rapports
Purportedly AI-Generated Images Reportedly Spread Misinformation During Hurricane Helene Response

Loading...
Des images déchirantes ou autre chose ? Des deepfakes générés par l'IA des victimes de l'ouragan Helene deviennent viraux
wionews.com · 2024

Quelques jours seulement après le passage de l'ouragan Helene aux États-Unis, une vague de désinformation a inondé Internet. Parmi celles-ci figurent deux images manipulées numériquement qui montrent soi-disant un enfant affolé dans un bateau au milieu des eaux de crue.

À première vue, les images semblent représenter un enfant portant un gilet de sauvetage tenant un chien sous une forte pluie provenant de la tempête dévastatrice. Cependant, une inspection plus approfondie révèle des défauts qui révèlent que les images sont fausses.

Comme le rapporte Forbes, les deux photos presque identiques présentent des altérations importantes. Un problème flagrant est que l'enfant a un doigt supplémentaire mal placé sur l'une des images. De plus, elle porte des chemises différentes et est assise dans des types de bateaux distincts sur chaque photo. Le chien sur les images varie également légèrement, son pelage apparaissant plus foncé dans la version la plus pixelisée.

Non seulement les gens ordinaires, même le sénateur de l'Utah Mike Lee a été victime de ces images trafiquées, en partageant une sur X (anciennement Twitter) avec la légende « Légendez cette photo ». Il a ensuite supprimé le message après que les utilisateurs ont souligné son inauthenticité. De même, un utilisateur de Facebook a partagé l'image manipulée, appelant à l'aide pour les « bébés et leurs familles ».

Les experts avertissent que les images modifiées numériquement représentant des catastrophes peuvent avoir de graves répercussions à long terme. Elles compliquent les efforts de secours, déforment les récits, érodent la confiance du public dans les situations de crise et peuvent même conduire à des escroqueries qui exploitent la bonne volonté des gens, bien qu'il ne soit pas certain que cette image en particulier ait été utilisée pour une collecte de fonds frauduleuse.

Alors que la désinformation se répand autour de l'ouragan Helene, l'Agence fédérale de gestion des urgences (FEMA) a maintenant créé une page de réponse aux rumeurs. Cette page vise à démystifier les fausses allégations, notamment les allégations selon lesquelles la FEMA confisque les biens des survivants, distribue de l'aide en fonction de critères démographiques ou confisque des dons et des fournitures.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd