Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4962

Incidents associés

Incident 98315 Rapports
Scammers Reportedly Used AI Voice Clone and YouTube Footage to Impersonate WPP CEO in Unsuccessful Scam Attempt

Loading...
Le PDG de WPP, Mark Read, visé par une attaque deepfake
adgully.com · 2024

Mark Read, PDG de WPP, a été victime d'une attaque de phishing utilisant une arnaque sophistiquée par deepfake. L'e-mail de Read à la direction détaillait l'incident, sensibilisant à la menace croissante des arnaques basées sur l'IA exploitant les réunions virtuelles et les deepfakes.

Selon un article exclusif du journal britannique Guardian, ce stratagème complexe consistait à créer un faux profil WhatsApp avec l'image de Read, à déployer une copie vocale d'un cadre supérieur de WPP lors d'une prétendue réunion Microsoft Teams et à utiliser des images préenregistrées. Les escrocs se sont ensuite fait passer pour Read via le chat de la réunion, ciblant un responsable de l'agence pour obtenir un gain financier et des informations personnelles. Heureusement, la vigilance de l'employé ciblé a permis d'empêcher l'escroquerie de réussir.

L'e-mail de Read sert d'avertissement, invitant à la prudence face aux demandes suspectes, notamment celles impliquant des passeports, des transferts d'argent ou des transactions secrètes inconnues du public.

Cet incident illustre la tendance croissante des attaques par deepfakes ciblant les entreprises. Les clones vocaux IA ont réussi à duper des institutions financières et des dirigeants, la facilité d'obtention d'échantillons audio faisant de la création de deepfakes une préoccupation croissante.

WPP, comme de nombreuses entreprises, explore le potentiel de l'IA générative tout en faisant face aux risques. Alors qu'elle explore l'IA à des fins publicitaires, la récente arnaque souligne la nécessité de mesures de cybersécurité robustes.

WPP lutte contre les fraudeurs qui créent de faux sites web utilisant le nom de l'entreprise.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd