Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4962

Incidentes Asociados

Incidente 98315 Reportes
Scammers Reportedly Used AI Voice Clone and YouTube Footage to Impersonate WPP CEO in Unsuccessful Scam Attempt

Loading...
El director ejecutivo de WPP, Mark Read, fue blanco de un ataque deepfake
adgully.com · 2024

El director ejecutivo de WPP, Mark Read, fue víctima de un ataque de phishing mediante una sofisticada estafa deepfake. El correo electrónico de Read a la directiva detalló el incidente, creando conciencia sobre la creciente amenaza de las estafas impulsadas por IA que explotan reuniones virtuales y deepfakes.

Según un informe exclusivo del periódico británico Guardian, el elaborado plan consistió en crear un perfil falso de WhatsApp con la imagen de Read, usar un clon de voz de un alto ejecutivo de WPP durante una supuesta reunión de Microsoft Teams y usar grabaciones pregrabadas. Los estafadores se hicieron pasar por Read a través del chat de la reunión, buscando obtener ganancias económicas e información personal de un líder de la agencia. Afortunadamente, la vigilancia del empleado afectado evitó que la estafa tuviera éxito.

El correo electrónico de Read sirve como advertencia, instando a la precaución ante solicitudes sospechosas, en particular las que involucran pasaportes, transferencias de dinero o acuerdos secretos desconocidos para otros.

El incidente pone de relieve la creciente tendencia de los ataques deepfake contra corporaciones. Los clones de voz de IA han engañado con éxito a instituciones financieras y ejecutivos, y la facilidad para obtener muestras de audio convierte la creación de audio deepfake en una preocupación creciente.

WPP, al igual que muchas empresas, lidia con el potencial de la IA generativa y, al mismo tiempo, con sus riesgos. Mientras exploran la IA para la publicidad, la reciente estafa pone de relieve la necesidad de implementar medidas robustas de ciberseguridad.

WPP ha estado luchando contra estafadores que crean sitios web falsos utilizando la marca de la empresa.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd