Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4164

Incidents associés

Incident 8178 Rapports
Purportedly AI-Generated Images Reportedly Spread Misinformation During Hurricane Helene Response

Loading...
Des images deepfake de l'ouragan Helene perturbent les efforts de secours et alimentent la désinformation
tribune.com.pk · 2024

Au lendemain de l’ouragan Helene, des images deepfake générées par l’IA représentant des scènes de dévastation et de souffrance humaine ont inondé les réseaux sociaux, suscitant l’inquiétude des experts.

Ces images fausses ne sèment pas seulement la confusion, mais entravent également les efforts essentiels de réponse aux catastrophes dans les zones durement touchées comme Asheville.

L’une des images les plus virales représente une jeune fille tenant un chiot, apparemment bloquée dans les eaux de crue.

Cependant, après enquête menée par des experts en criminalistique numérique, il s’est avéré que l’image était trafiquée, avec des anomalies notables telles qu’un doigt supplémentaire sur la main de la fille et des couleurs dépareillées sur le museau du chiot.

Méfiance envers les médias

Lars Daniel, spécialiste en criminalistique numérique, a confirmé que ces images sont fortement retouchées ou carrément fausses, ajoutant que leur prolifération porte atteinte à la confiance du public dans les sources médiatiques. « Ces deepfakes lors de situations de catastrophe critiques causent de réels dommages. « Les gens ne savent pas ce qui est vrai et ce qui ne l’est pas, ce qui complique les efforts de secours et conduit à un désengagement par rapport aux informations exactes », a déclaré Daniel.

L’exposition répétée à des contenus falsifiés comme celui-ci peut éroder la confiance du public dans les sources d’information légitimes. Lorsque les individus sont constamment confrontés à des deepfakes, ils peuvent commencer à remettre en question toutes les formes de médias, y compris les mises à jour fiables sur les catastrophes et les informations sur les secours.

Menace de faux contenus 

Au-delà de créer la confusion, ces fausses images sont utilisées par les cybercriminels dans le cadre de stratagèmes de phishing et de campagnes de collecte de fonds frauduleuses.

Les acteurs malveillants associent fréquemment ces images générées par l’IA à des liens de phishing, exploitant la bonne volonté d’individus sans méfiance qui souhaitent aider les personnes touchées par la catastrophe.

Beaucoup ont déjà été incités à donner de l’argent ou à fournir des informations personnelles sous de faux prétextes.

Impact psychologique des fausses images

Le coût psychologique des deepfakes en temps de crise est profond. Les gens ressentent d’abord une détresse émotionnelle lorsqu’ils voient des images tragiques, mais lorsqu’ils apprennent que ces images sont fausses, ils se sentent souvent trahis, en colère et confus.

Ce coup de fouet émotionnel peut entraîner un sentiment de fatigue et d’apathie.

Au fil du temps, les individus deviennent insensibles aux images réelles et fausses de catastrophes. « Chaque fois que quelqu’un est induit en erreur par un deepfake, cela érode sa capacité à s’engager émotionnellement dans de vraies crises. Au bout du compte, les gens peuvent tout simplement cesser de s’y intéresser », a ajouté Daniel.

Fatigue de vérification

Lors des catastrophes précédentes, les gens pouvaient voir les images et réagir instantanément en faisant un don ou en sympathisant.

Cependant, le paysage actuel est rempli de désinformation, ce qui fait de la vérification une étape nécessaire avant de réagir. Ce besoin constant de vérifier si le contenu est réel crée une fatigue mentale, et certaines personnes se désintéressent tout simplement, pensant que c’est trop d’efforts pour naviguer dans la mer de désinformation.

Les fausses images comme celles entourant l’ouragan Helene peuvent considérablement entraver les efforts de secours. Lorsque les personnes ont le sentiment qu’elles ne peuvent plus faire confiance à ce qu’elles voient, elles peuvent cesser complètement de s’engager.

Cette apathie est particulièrement dangereuse lors des catastrophes, car moins de personnes se portent volontaires pour aider, faire du bénévolat ou faire des dons, ce qui rend les communautés touchées plus vulnérables.

Les fausses images de catastrophes ne nuisent pas seulement aux réponses individuelles, elles affaiblissent également l’unité sociale collective. Alors que de plus en plus de personnes se désengagent en raison de la méfiance, il devient de plus en plus difficile de mobiliser le soutien généralisé nécessaire à une aide efficace en cas de catastrophe.

Ce détachement émotionnel pourrait devenir plus courant, ce qui représente un risque sérieux pour les futures réponses lors de crises réelles.

Cette « fatigue face aux catastrophes » signifie moins de dons, une action plus lente et une participation publique réduite au moment où elle est le plus nécessaire. L’apathie et le scepticisme croissants à l’égard des rapports de catastrophes pourraient rendre les communautés vulnérables plus longtemps, car moins de personnes sont prêtes à contribuer aux efforts de rétablissement.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd