Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4125

Incidents associés

Incident 80510 Rapports
Senator Ben Cardin Reportedly Received a Purported Deepfake Zoom Call Impersonating Former Ukrainian Foreign Minister Dmytro Kuleba

Loading...
Une opération de deepfake élaborée nécessite une réunion avec un sénateur américain
darkreading.com · 2024

Plus tôt ce mois-ci, le sénateur Ben Cardin (D-Md.), qui est le président démocrate de la commission des relations étrangères du Sénat, a été la cible d'une opération avancée de deepfake qui a réussi en partie à duper le politicien.

L'opération était centrée sur l'association professionnelle de Cardin avec Dymtro Kuleba, l'ancien ministre ukrainien des Affaires étrangères. Le bureau de Cardin aurait reçu un e-mail d'une personne qu'ils pensaient être Kuleba, que Cardin connaissait déjà lors de réunions passées.

Kuleba et Cardin se sont rencontrés via Zoom grâce à ce qui semblait être une connexion audio-vidéo en direct « qui était cohérente en apparence et en son avec les rencontres passées », selon un avis publié par le bureau de sécurité du sénateur.

Mais c'est là que les choses ont commencé à mal tourner pour les acteurs de la menace. "Kuleba" a commencé à poser à Cardin des questions telles que "soutenez-vous les missiles à longue portée sur le territoire russe ? J'ai besoin de connaître votre réponse", et d'autres "questions à caractère politique en relation avec les prochaines élections", selon l'avis.

À ce stade, Cardin et son équipe savaient que quelque chose n'allait pas.

L'acteur malveillant de l'autre côté de l'appel a continué, essayant d'inciter le sénateur à commenter un candidat politique et d'autres choses.

"Le sénateur et son équipe ont mis fin à l'appel et ont rapidement contacté le Département d'État qui a vérifié qu'il ne s'agissait pas de Kuleba", a déclaré Nicolette Llewellyn, la directrice de la sécurité du Sénat, dans l'avis.

Les escroqueries par deepfake sont en hausse

Le 25 septembre, Cardin a commenté la rencontre, décrivant la personne de l'autre côté de l'écran comme un acteur malveillant qui s'est engagé dans une tentative trompeuse pour essayer d'avoir une conversation avec lui.

« Après avoir immédiatement compris que la personne avec laquelle je discutais n’était pas celle qu’elle prétendait être, j’ai mis fin à l’appel et mon bureau a réagi rapidement en alertant les autorités compétentes », a déclaré le sénateur Cardin. « Cette affaire est désormais entre les mains des forces de l’ordre et une enquête approfondie est en cours. »

Cependant, les efforts déployés par ces acteurs malveillants sont impressionnants – et inquiétants. S’ils n’avaient pas révélé leur stratagème en agissant de manière inhabituelle pour la personne qu’ils se faisaient passer, ils auraient peut-être glané des informations sensibles ou importantes.

« Au niveau individuel, les « deepfakes » peuvent conduire au chantage et à l’extorsion », explique Eyal Benishti, PDG d’Ironscales. « Pour les entreprises, les deepfakes présentent des risques de pertes financières importantes, d'atteinte à la réputation et d'espionnage industriel. Au niveau gouvernemental, ils menacent la sécurité nationale et peuvent saper les processus démocratiques » — sans doute en référence à un appel automatisé deepfake qui a été créé pour usurper l'identité du président Joe Biden dans le but d'inciter les partisans de Biden à rester chez eux pour réduire la participation électorale.

Il est clair que les systèmes deepfake deviennent une menace plus importante et sont de plus en plus largement utilisés par des acteurs malveillants. Dans un rapport de juillet partagé par Trend Micro avec Dark Reading, les chercheurs ont découvert que 80 % des consommateurs interrogés avaient vu des images deepfake et 64 % des vidéos deepfake. Environ la moitié des consommateurs interrogés avaient entendu parler de clips audio deepfake. Et ce qui est inquiétant, c'est que 35 % des personnes interrogées ont déclaré avoir elles-mêmes été victimes d'une arnaque deepfake, et un nombre encore plus élevé a déclaré connaître quelqu'un qui en a été victime.

Ces types d'arnaques se présentent sous toutes sortes de formes, comme les vidéos deepfake du Premier ministre britannique Keir Starmer et du prince William qui circulaient sur les plateformes Meta plus tôt cette année pour promouvoir une plateforme de cryptomonnaie appelée Immediate Edge. La plateforme était frauduleuse et visait à duper les victimes potentielles en faisant croire qu'elle était soutenue par des personnalités publiques réputées. Selon les chercheurs qui ont étudié la campagne de désinformation, les publicités deepfake ont atteint près de 900 000 personnes qui ont dépensé plus de 20 000 £ sur la plateforme.

« La montée en puissance des deepfakes – que ce soit par le biais d’images, de vidéos ou d’audio – est difficile à nier », déclare Benishti. « Ces attaques deviennent de plus en plus sophistiquées et souvent impossibles à distinguer de la réalité, grâce à l’accessibilité des outils d’IA générative. »

Et cela signifie que les défenses doivent évoluer, déclare Benishti. 

« Actuellement, il n’existe aucune méthode infaillible pour détecter facilement les deepfakes », dit-il. « En attendant que la technologie rattrape son retard, nous devons donner la priorité à la sensibilisation, à l’éducation et à la formation pour doter les individus et les organisations des compétences et des stratégies nécessaires pour agir en fonction de leurs soupçons, mettre en œuvre des processus de vérification efficaces et, en fin de compte, améliorer leur capacité à discerner ce qui est vrai et ce qui ne l’est pas. »

Ces recommandations s’appliquent à tout le monde, pas seulement aux personnes de haut rang ou de haut rang comme Cardin.

« Les cybercriminels profitent des opportunités, quel que soit leur statut, ce qui signifie que n’importe qui peut être une cible », ajoute Benishti. « Il est essentiel que tout le monde, et pas seulement les personnalités éminentes, reste vigilant et sceptique face à toute demande urgente ou inattendue. La vigilance et la vérification sont des défenses essentielles contre ces menaces en constante évolution. »

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd