Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5318

Incidents associés

Incident 11003 Rapports
Reported Audio Deepfake Impersonating CEO Karim Toubba Targets LastPass Employee via WhatsApp

Loading...
Tentative de deepfake audio visant un employé de LastPass
blog.lastpass.com · 2024

Français Au cours des dernières années, la communauté du renseignement sur les cybermenaces s'est inquiétée de la prolifération croissante de la technologie « deepfake » et de son utilisation potentielle par des fraudeurs contre des entreprises et/ou des particuliers. Les « deepfakes » utilisent l'intelligence artificielle générative pour exploiter des échantillons audio et/ou visuels existants afin de créer un enregistrement nouveau et unique d'un individu ciblé disant ou faisant tout ce que le créateur a programmé l'outil deepfake pour fabriquer. Les deepfakes sont souvent associés à la désinformation politique et aux campagnes de désinformation, mais la combinaison de la qualité accrue des deepfakes et de la disponibilité accrue de la technologie utilisée pour les créer (il existe désormais de nombreux sites et applications ouvertement disponibles qui permettent à presque tout le monde de créer facilement un deepfake) est également depuis longtemps une préoccupation du secteur privé. En fait, dès 2019, une entreprise basée au Royaume-Uni aurait été victime d'un deepfake audio dans lequel un employé a été convaincu de transférer de l'argent à un fraudeur qui a utilisé un logiciel de génération de voix-IA pour se faire passer pour le PDG de l'entreprise. Plus récemment, un employé financier d'une multinationale basée à Hong Kong a été dupé et a transféré 25 millions de dollars à des fraudeurs après qu'ils ont organisé un appel vidéo dans lequel tous les autres participants, y compris une personne se faisant passer pour le directeur financier de l'entreprise, étaient des vidéos deepfakes.

Capture d'écran montrant la tentative de contact WhatsApp utilisant un deepfake audio pour se faire passer pour le PDG

Bien que les signalements de ce type de deepfakes téléphoniques ciblant des entreprises privées soient heureusement rares, LastPass a elle-même subi une tentative de deepfake plus tôt dans la journée. Nous la partageons avec la communauté afin de sensibiliser le public à la propagation de cette tactique et à la vigilance de toutes les entreprises. Dans notre cas, un employé a reçu une série d'appels, de SMS et au moins un message vocal contenant un deepfake audio provenant d'un acteur malveillant se faisant passer pour notre PDG via WhatsApp. Étant donné que la tentative de communication se déroulait en dehors des canaux de communication professionnels habituels et que l'employé soupçonnait la présence de nombreux signes distinctifs d'une tentative d'ingénierie sociale (comme l'urgence forcée), notre employé a, à juste titre, ignoré les messages et signalé l'incident à notre équipe de sécurité interne afin que nous puissions prendre des mesures pour atténuer la menace et sensibiliser à la tactique, tant en interne qu'en externe.

Soyons clairs : il n'y a eu aucun impact sur notre entreprise. Cependant, nous souhaitions partager cet incident afin de sensibiliser le public au fait que les deepfakes ne sont de plus en plus souvent l'apanage d'acteurs malveillants sophistiqués des États-nations et qu'ils sont de plus en plus utilisés pour des campagnes de fraude par usurpation d'identité de dirigeants. Souligner l'importance de vérifier les contacts potentiellement suspects de personnes prétendant travailler pour votre entreprise via des canaux de communication internes établis et approuvés est une leçon importante à tirer de cette tentative. En plus de cet article de blog, nous travaillons déjà en étroite collaboration avec nos partenaires de partage de renseignements et d’autres sociétés de cybersécurité pour les sensibiliser à cette tactique afin d’aider les organisations à garder une longueur d’avance sur les fraudeurs.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd