Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4951

Incidentes Asociados

Incidente 98315 Reportes
Scammers Reportedly Used AI Voice Clone and YouTube Footage to Impersonate WPP CEO in Unsuccessful Scam Attempt

Loading...
El director ejecutivo de la empresa de publicidad más grande del mundo fue blanco de una estafa deepfake.
theguardian.com · 2024

El director del mayor grupo publicitario del mundo fue objeto de una elaborada estafa deepfake que incluía un clon de voz de inteligencia artificial. El director ejecutivo de WPP, Mark Read, detalló el intento de fraude en un correo electrónico reciente dirigido a la dirección, advirtiendo a otros miembros de la empresa que estuvieran atentos a las llamadas que afirmaban provenir de altos ejecutivos.

Los estafadores crearon una cuenta de WhatsApp con una imagen pública de Read y la utilizaron para organizar una reunión de Microsoft Teams que aparentemente era con él y otro alto ejecutivo de WPP, según el correo electrónico obtenido por The Guardian. Durante la reunión, los impostores utilizaron un clon de voz del ejecutivo, así como imágenes de YouTube de ambos. Los estafadores se hicieron pasar por Read fuera de cámara utilizando el chat de la reunión. La estafa, que no tuvo éxito, se dirigió a un "líder de agencia", al que le pedía que creara una nueva empresa para intentar obtener dinero e información personal.

"Afortunadamente, los atacantes no tuvieron éxito", escribió Read en el correo electrónico. Todos debemos estar atentos a las técnicas que van más allá del correo electrónico para aprovecharse de las reuniones virtuales, la IA y los deepfakes.

Un portavoz de WPP confirmó en un comunicado que el intento de phishing no dio resultado: "Gracias a la vigilancia de nuestro personal, incluido el ejecutivo involucrado, el incidente se evitó". WPP no respondió a preguntas sobre cuándo tuvo lugar el ataque ni qué ejecutivos, además de Read, estuvieron involucrados.

Anteriormente una preocupación relacionada principalmente con el acoso en línea, la pornografía y la desinformación política, el número de ataques deepfakes en el mundo empresarial se ha disparado durante el último año. Los clones de voz de IA han engañado a bancos, estafado a empresas financieras con millones de dólares y han puesto en alerta a los departamentos de ciberseguridad. En un ejemplo destacado, un ejecutivo de la extinta startup de medios digitales Ozy se declaró culpable de fraude y robo de identidad tras informarse de que utilizó software de falsificación de voz para suplantar la identidad de un ejecutivo de YouTube con el fin de engañar a Goldman Sachs para que invirtiera 40 millones de dólares en 2021.

El intento de fraude contra WPP también pareció utilizar IA generativa para la clonación de voz, pero también incluyó técnicas más sencillas, como tomar una imagen pública y usarla como foto de contacto. El ataque es representativo de las numerosas herramientas que los estafadores tienen ahora a su disposición para imitar las comunicaciones corporativas legítimas y a los ejecutivos.

“Hemos observado una creciente sofisticación en los ciberataques contra nuestros colegas, y en particular en aquellos dirigidos a altos directivos”, declaró Read en el correo electrónico.

El correo electrónico de Read enumeraba una serie de puntos clave a tener en cuenta como señales de alerta, incluyendo solicitudes de pasaportes, transferencias de dinero y cualquier mención de una “adquisición, transacción o pago secreto del que nadie más tenga conocimiento”.

“El hecho de que la cuenta tenga mi foto no significa que sea yo”, afirmó Read en el correo electrónico.

WPP, una empresa que cotiza en bolsa con una capitalización bursátil de aproximadamente 11.300 millones de dólares, también declaró en su sitio web que había estado lidiando con sitios web falsos que usaban su marca y que estaba trabajando con las autoridades pertinentes para detener el fraude.

“Tenga en cuenta que el nombre de WPP y el de sus agencias han sido utilizados fraudulentamente por terceros, a menudo comunicándose a través de servicios de mensajería, en sitios web y aplicaciones no oficiales”, afirma un mensaje emergente en la página de contacto de la empresa.

Muchas empresas están lidiando con el auge de la IA generativa, destinando recursos a esta tecnología al tiempo que se enfrentan a sus posibles perjuicios. WPP anunció el año pasado que se asociaría con el fabricante de chips Nvidia para crear anuncios con IA generativa, presentándolo como un cambio radical en la industria.

“La IA generativa está cambiando el mundo del marketing a una velocidad increíble. Esta nueva tecnología transformará la forma en que las marcas crean contenido para uso comercial”, declaró Read en un comunicado el pasado mayo.

En los últimos años, la tecnología de deepfake de audio de bajo coste se ha vuelto ampliamente disponible y mucho más convincente. Algunos modelos de IA pueden generar imitaciones realistas de la voz de una persona con tan solo unos minutos de audio, que se obtiene fácilmente de figuras públicas, lo que permite a los estafadores crear grabaciones manipuladas de prácticamente cualquier persona.

El auge de los audios deepfake se ha dirigido a candidatos políticos de todo el mundo, pero también ha afectado a otros objetivos menos conocidos. Un director de escuela en Baltimore fue despedido este año por grabaciones de audio que parecían indicar que hacía comentarios racistas y antisemitas, solo para que se descubriera que se trataba de un deepfake perpetrado por uno de sus colegas. Los bots se han hecho pasar por Joe Biden y el ex candidato presidencial Dean Phillips.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd