Incidents associés

Avant de faire un don pour les secours aux victimes de l'ouragan, méfiez-vous : ces images déchirantes de survivants que vous voyez sur les réseaux sociaux pourraient bien ne pas être réelles.
Le Better Business Bureau a publié un nouvel avertissement selon lequel certaines personnes utilisent l'intelligence artificielle pour créer de fausses images de secours sur les réseaux sociaux.
Des milliers de personnes bien intentionnées ont partagé des photos censées représenter les conséquences de la destruction de l'ouragan Helene, mais qui sont en fait de fausses images générées par l'IA, selon Virginia Tech.
Une image devenue virale montre une jeune fille avec les larmes aux yeux, serrant un chiot dans ses bras alors qu'elle est secourue par bateau dans une rue inondée. De nombreux messages accompagnant cette image affirment que davantage d'argent est destiné à aider l'Ukraine ou aux « immigrés illégaux » qu'aux victimes de l'ouragan.
Bien que l'image puisse vous toucher en plein cœur, elle est complètement fausse. Il existe même une deuxième version de l'image, sous un angle différent, qui montre la même fille dans le même bateau, mais tenant un chiot d'une couleur différente et portant un gilet de sauvetage différent.
« Ce sont des situations tragiques », a déclaré Carl Bates, porte-parole du BBB, à WBRC. « Partager ces informations n'aide pas la situation, n'aide pas les personnes qui y sont réellement impliquées. Cela ne peut que faire mal, et il y a beaucoup de tragédies en cours en ce moment avec les deux tempêtes, Helene et maintenant Milton, et vous savez que ce n'est tout simplement pas quelque chose qui devrait être fait. »
Des photos comme celle de la petite fille en pleurs illustrent les défis actuels liés à la désinformation et aux médias sociaux, à savoir que la technologie de l'IA permet de créer des images réalistes qui sont trompeuses, selon Cayce Myers, professeur de relations publiques à Virginia Tech.
« Le problème est que ces fausses images influencent la perception de la réalité par les gens, et les médias sociaux alimentent la propagation de cette désinformation. L'effet net peut être néfaste pour la société, en particulier lorsqu'il s'agit de questions importantes comme la démocratie et la santé publique », a déclaré Myers dans un déclaration.
Les capacités de l'IA générative progressant à un rythme incroyable, il devient très difficile de repérer les faux. Mais le BBB a quelques suggestions.
Recherchez des signaux d'alarme dans le contexte. La cause la plus fiable de suspicion peut être le contexte dans lequel vous voyez une image potentiellement falsifiée ou entendez une voix. Posez-vous ce genre de questions : l'image est-elle utilisée pour faire pression sur vous pour prendre une mesure urgente, qui semble douteuse, comme envoyer de l'argent à un inconnu ou utiliser un mécanisme de paiement inattendu ou étrange ? Le contexte est-il politique et semble-t-il que quelqu'un essaie de vous mettre en colère ou de vous énerver ?
Trouvez une image haute résolution et zoomez. Recherchez l'image dans la résolution la plus élevée possible, puis zoomez. Vous trouverez probablement quelques indices si vous regardez une image générée par l'IA.
Tenez compte de l'asymétrie et d'autres incohérences physiques, mais soyez prudent. L'asymétrie des visages, des dents et des mains humaines est un problème courant avec les images d'IA de mauvaise qualité. Vous remarquerez peut-être aussi des mains avec des doigts supplémentaires (ou pas assez). Un autre signe révélateur est des proportions corporelles non naturelles, comme des oreilles, des doigts ou des pieds disproportionnés en taille ou en taille.
Des textures étranges ou un effet brillant. Les images générées par l'IA ont souvent des arrière-plans texturés ou un aspect retouché que les vraies photos ne partagent pas. Vous remarquerez peut-être également des arrière-plans étranges ou des images nettes avec des points flous aléatoires.
Vérifiez la source. Essayez de remonter à la publication d'origine de la photo pour voir qui a partagé l'image et pourquoi il l'a partagée. Si elle montre des événements ou des messages politiques choquants, demandez-vous si l'information est diffusée sur les réseaux sociaux ou dans les médias grand public. Pourquoi les médias grand public pourraient-ils hésiter à reprendre l'histoire ? Il s'agit probablement de fausses informations corroborées par des images générées par l'IA.
Effectuez une recherche d'image inversée. Si vous avez du mal à déterminer d'où vient une image, essayez une recherche d'image inversée. Cela peut faire apparaître tous les sites Web sur lesquels l'image a été partagée, ce qui peut vous aider à comprendre le contexte de l'image et ses origines.