Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3252

Loading...
I.A. Brouille la guerre entre Israël et le Hamas de manière inattendue
nytimes.com · 2023

C’est une image horrible qui a circulé rapidement sur Internet : un corps calciné, décrit comme celui d’un enfant décédé, qui aurait été photographié dans les premiers jours du conflit entre Israël et le Hamas.

Certains observateurs sur les réseaux sociaux l’ont rapidement qualifié de « faux généré par l’IA » – créé à l’aide d’outils d’intelligence artificielle capables de produire des images photoréalistes en quelques clics.

Plusieurs I.A. Les spécialistes ont depuis conclu que la technologie n’était probablement pas impliquée. Mais à cette époque, les doutes quant à sa véracité étaient déjà largement répandus.

Depuis l’attaque terroriste du Hamas du 7 octobre, les organismes de surveillance de la désinformation craignent que les contrefaçons créées par l’IA ne soient utilisées. des outils, y compris les rendus réalistes connus sous le nom de deepfakes, confondraient le public et renforceraient les efforts de propagande.

Jusqu’à présent, ils ont eu raison de prédire que la technologie occuperait une place importante pendant la guerre – mais pas exactement pour la raison qu’ils pensaient.

Les chercheurs en désinformation ont trouvé relativement peu d’IA. des contrefaçons, et encore moins de celles qui sont convaincantes. Pourtant, la simple possibilité qu’A.I. Le contenu qui pourrait circuler amène les gens à rejeter les images, vidéos et audios authentiques comme étant inauthentiques.

Sur les forums et les plateformes de médias sociaux comme X, Truth Social, Telegram et Reddit, des personnes ont accusé des personnalités politiques, des médias et d'autres utilisateurs d'avoir effrontément tenté de manipuler l'opinion publique en créant des IA. contenu, même lorsque le contenu est presque certainement authentique.

« Même selon les normes du brouillard de guerre auquel nous sommes habitués, cela le conflit est particulièrement compliqué », a déclaré Hany Farid, professeur d’informatique à l’Université de Californie à Berkeley et expert en criminalistique numérique, A.I. et la désinformation. « Le spectre des deepfakes est bien plus important maintenant – il n'en faut pas des dizaines des milliers, il suffit de quelques-uns, puis on empoisonne le puits et tout devient suspect.

L'intelligence artificielle s'est considérablement améliorée au cours de l'année écoulée, permettant à presque tout le monde de créer un faux convaincant en saisissant du texte dans les outils d'IA les plus populaires. générateurs qui produisent des images, de la vidéo ou de l’audio – ou en utilisant des outils plus sophistiqués. Lorsqu'une vidéo deepfake du président ukrainien Volodymyr Zelensky a été publiée au printemps 2022, elle a été largement ridiculisé comme étant trop grossier pour être réel ; une vidéo truquée similaire du président russe Vladimir V. Poutine était suffisamment convaincante pour que plusieurs chaînes de radio et de télévision russes le diffusent en juin prochain.

Deux deepfakes produits à environ un an d’intervalle démontrent à quel point la technologie – désormais entre les mains des utilisateurs quotidiens – progresse.

« Que se passe-t-il lorsque littéralement tout ce que vous voyez qui est numérique pourrait être synthétique ? » Bill Marcellino, spécialiste du comportement et spécialiste de l'IA. expert du groupe de recherche RAND Corporation, a déclaré lors d'une conférence de presse la semaine dernière. "Cela ressemble certainement à un changement décisif dans la façon dont nous faisons ou ne faisons pas confiance à l'information."

Au milieu de discussions très émouvantes sur Gaza, de nombreuses discussions se déroulent sur les plateformes de médias sociaux qui ont lutté pour protéger contre les contenus graphiques et inexacts, la confiance continue de s'effilocher. Et maintenant, les experts affirment que les agents malveillants profitent de la disponibilité de l’IA pour rejeter le contenu authentique comme faux – un concept connu sous le nom de dividende du menteur.

Leur mauvaise orientation pendant la guerre a été renforcée en partie par la présence de certains contenus créés artificiellement.

Un post sur X, visionné 1,8 million de fois, prétendait montrer des supporters de football dans un stade de Madrid tenant un énorme drapeau palestinien ; les utilisateurs ont noté que les corps déformés dans l'image étaient un signe révélateur de l'IA. génération. Un compte X lié au Hamas a partagé une image censée montrer un campement de tentes pour les Israéliens déplacés, mais représentait un drapeau avec deux étoiles bleues au lieu de l’étoile unique figurant sur le drapeau israélien lui-même. Le message a ensuite été supprimé. Les utilisateurs de Truth Social et d’une chaîne Telegram liée au Hamas ont partagé des photos du Premier ministre israélien Benjamin Netanyahu, rendues synthétiquement pour apparaître couvertes de sang.

Ces images, que l'on croit générées par l'IA. outils, ont atteint un large public en ligne.

Remarque : contenu masqué par le New York Times.

Une attention bien plus grande a été accordée aux images suspectées qui ne portaient aucun signe d’IA. falsification, comme la vidéo du directeur d’un hôpital bombardé à Gaza donnant une conférence de presse – intitulée « A.I. généré » par certains – qui a été filmé depuis différents points de vue par plusieurs sources.

D'autres exemples ont été plus difficiles à catégoriser : l'armée israélienne a publié un enregistrement de ce qu'elle a décrit comme une conversation sur écoute entre deux membres du Hamas, mais ce que certains auditeurs ont dit était un son falsifié ([The New York Times](https://www.nytimes.com/live/2023/10/18/world/israel-hamas-war-biden- gaza?smid=url-share#idf-account-hospital), la BBC et [CNN](https:/ /www.cnn.com/2023/10/21/middleeast/cnn-investigates-forensic-analysis-gaza-hospital-blast/index.html) ont indiqué qu'ils n'avaient pas encore vérifié la conversation).

Pour tenter de discerner la vérité de l’IA, certains utilisateurs de médias sociaux se sont tournés vers des outils de détection, qui prétendent détecter les manipulations numériques mais se sont révélés loin d’être fiables. Un test du Times a révélé que les détecteurs d'images avaient une trace inégale enregistrer, en diagnostiquant parfois à tort des images qui étaient évidentes grâce à l'IA. créations, ou étiqueter de vraies photos comme inauthentiques.

Dans les premiers jours de la guerre, M. Netanyahu a partagé une série d’images sur X, affirmant qu’il s’agissait de « photos horribles de bébés assassinés et brûlés » par le Hamas. Lorsque le commentateur conservateur Ben Shapiro a amplifié l'une des images sur X, il a été accusé à plusieurs reprises de diffuser du contenu généré par l'IA.

Un message, qui a recueilli plus de 21 millions de vues avant d'être supprimé, prétendait avoir la preuve que l'image du bébé était fausse : une capture d'écran d'AI or Not, un outil de détection, identifiant l'image comme « générée par l'IA ». La société a ensuite corrigé cette découverte sur X, affirmant que son résultat n'était « pas concluant » car l'image avait été compressée et modifiée pour obscurcir les détails d'identification ; la société a également déclaré avoir peaufiné son détecteur.

"Nous avons réalisé que chaque technologie créée avait, à un moment donné, été utilisée à des fins malveillantes", a déclaré Anatoly Kvitnitsky, directeur général d'AI or Not, basée dans la région de la baie de San Francisco et comptant six employés. « Nous sommes arrivés à la conclusion que nous essayons de faire le bien, que nous allons maintenir le service actif et faire de notre mieux pour nous assurer que nous sommes des pourvoyeurs de vérité. Mais nous y avons réfléchi : est-ce que nous provoquons plus de confusion, plus de chaos ?

AI or Not s'efforce de montrer aux utilisateurs quelles parties d'une image sont soupçonnées d'être générées par l'IA, a déclaré M. Kvitnitsky.

I.A. disponible Les services de détection pourraient potentiellement être utiles dans le cadre d'une suite plus large d'outils, mais sont dangereux lorsqu'ils sont traités comme le dernier mot en matière d'authenticité du contenu, a déclaré Henry Ajder, un expert en médias manipulés et synthétiques.

Les outils de détection des Deepfakes, a-t-il déclaré, « fournissent une fausse solution à un problème beaucoup plus complexe et difficile à résoudre ».

Plutôt que de s'appuyer sur des services de détection, des initiatives telles que la Coalition for Content Provenance and Authenticity et des sociétés comme Google explorent des tactiques permettant d'identifier la source et l'historique des fichiers multimédias. Les solutions sont loin d'être parfaites — [deux](https://www.cs.umd.edu/article/2023/10/researchers-say-current-ai-watermarks-are-trivial-remove#:~:text= Mais%20beyond%20testing%20how%20easy,detect%20when%20products%20are%20stolen.) groupes de chercheurs ont récemment découvert que la technologie de filigrane existante est facile à utiliser. supprimer ou éluder – mais les partisans affirment qu’ils pourraient aider à restaurer une certaine confiance dans la qualité du contenu.

« Prouver ce qui est faux sera une entreprise inutile et nous allons simplement faire bouillir l’océan en essayant de le faire », a déclaré Chester Wisniewski, cadre de la société de cybersécurité Sophos. "Cela ne fonctionnera jamais, et nous devons simplement redoubler d'efforts pour commencer à valider ce qui est réel."

Pour l’instant, les utilisateurs des réseaux sociaux qui cherchent à tromper le public s’appuient beaucoup moins sur l’IA photoréaliste. images que sur d'anciennes images de conflits ou de catastrophes précédentes, qu'ils présentent à tort comme la situation actuelle à Gaza, selon Alex Mahadevan, directeur du programme d'éducation aux médias Poynter MediaWise.

« Les gens croiront tout ce qui confirme leurs convictions ou les rend émotifs », a-t-il déclaré. "Peu importe à quel point c'est bon, ou à quel point cela a l'air nouveau, ou quoi que ce soit du genre."

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd