Incidentes Asociados

El director ejecutivo de WPP fue víctima de una elaborada estafa de deepfake que consistía en clonar la voz de su jefe para solicitar dinero y datos personales a los empleados de la empresa.
Mark Read, director ejecutivo de WPP, empresa de comunicaciones y publicidad con sede en Londres, cuyos clientes incluyen a Dell, Wendy's, Victoria's Secret y Coca-Cola, vio su voz clonada y su imagen robada por estafadores que crearon una cuenta de WhatsApp aparentemente suya.
Usaban una foto pública de Read como foto de perfil para engañar a otros usuarios, según un correo electrónico explicando la estafa y enviado a la dirección de WPP anteriormente revisado por The Guardian.
La voz y la imagen del director ejecutivo de WPP, Mark Read, fueron robadas como parte de una elaborada estafa de deepfake para que los colegas del gigante publicitario entregaran sus datos personales y fondos. REUTERS
La cuenta de WhatsApp se utilizó para organizar reuniones de Microsoft Teams con otro ejecutivo de WPP.
Durante la reunión, los delincuentes difundieron un video falso de Read, generado por inteligencia artificial (también conocido como "deepfake"), que incluía la clonación de voz.
También intentaron usar el chat de la reunión para hacerse pasar por Read y atacar a un compañero "líder de agencia" de WPP (cuya capitalización bursátil ronda los 11.300 millones de dólares), pidiéndole que entregara dinero y otros datos personales, según The Guardian.
"Afortunadamente, los atacantes no tuvieron éxito", escribió Read en el correo electrónico obtenido por The Guardian.
"Todos debemos estar atentos a las técnicas que van más allá del correo electrónico para aprovecharse de las reuniones virtuales, la IA y los deepfakes".
Un portavoz de WPP confirmó a The Post que el intento de estafa a la directiva de la compañía no tuvo éxito.
“Gracias a la vigilancia de nuestro personal, incluyendo al ejecutivo involucrado, el incidente se evitó”, añadió el representante de la compañía.
Según se informa, los estafadores usaron una foto de Read para crear una cuenta de WhatsApp, que luego se utilizó para crear una cuenta de Microsoft Teams y comunicarse con otros directivos de WPP haciéndose pasar por Read. diy13 – stock.adobe.com
No quedó claro de inmediato qué otros ejecutivos de WPP participaron en el plan ni cuándo se produjo el intento de ataque.
El portavoz de WPP se negó a proporcionar más detalles sobre la estafa.
“Hemos observado una creciente sofisticación en los ciberataques contra nuestros colegas, y en particular en aquellos dirigidos a altos directivos”, añadió Read en el correo electrónico, según The Guardian, en referencia a las innumerables maneras en que los delincuentes pueden hacerse pasar por personas reales.
El correo electrónico de Read incluía varios puntos clave que aconsejaba a los destinatarios tener en cuenta como señales de alerta, como solicitudes de pasaportes, transferencias de dinero y cualquier mención de una "adquisición, transacción o pago secreto del que nadie más tenga conocimiento".
WPP, una empresa de comunicaciones y publicidad con sede en Londres, cuyos clientes incluyen a Dell, Wendy's, Victoria's Secret y Coca-Cola, confirmó a The Post que los estafadores no lograron engañar a sus ejecutivos. AFP vía Getty Images
"Que la cuenta tenga mi foto no significa que sea yo", declaró Read en el correo electrónico, según The Guardian.
The Post ha solicitado declaraciones a WPP, que incluye un aviso en su página de Contactos donde se indica que su "nombre y el de sus agencias han sido utilizados fraudulentamente por terceros".
El audio deepfake ha ido en aumento, a medida que las imágenes deepfake se han convertido en un tema de intenso debate entre las empresas de inteligencia artificial.
Mientras que Google ha tomado medidas recientemente para distanciarse del lado oscuro de la IA y está tomando medidas enérgicas contra la creación de deepfakes, la mayoría de los cuales son pornográficos, por considerarlos "atroces", el creador de ChatGPT, OpenAI, supuestamente está considerando permitir a los usuarios crear pornografía generada por IA y otro contenido explícito con sus herramientas tecnológicas.
Sin embargo, los deepfakes como las imágenes gráficas de desnudos de Taylor Swift serán prohibidos.
Los deepfakes se componen principalmente de imágenes pornográficas falsas, y celebridades como Taylor Swift, Bella Hadid y la congresista estadounidense Alexandria Ocasio-Cortez han sido víctimas de estas prácticas. AFP vía Getty Images
La empresa dirigida por Sam Altman afirmó estar "explorando si podemos ofrecer de forma responsable la capacidad de generar contenido NSFW (no apto para el trabajo) en contextos apropiados para la edad".
"Esperamos comprender mejor las expectativas de los usuarios y la sociedad sobre el comportamiento de las modelos en este ámbito", añadió OpenAI, señalando que entre los ejemplos se podrían incluir "erótica, escenas sangrientas extremas, insultos y lenguaje grosero no solicitado".
La incursión de OpenAI en la creación de contenido falso con clasificación X se produce tan solo unos meses después de presentar Sora, un software revolucionario capaz de producir vídeos de alta calidad en respuesta a unas simples consultas de texto. (https://nypost.com/2024/02/16/business/openais-software-sora-generates-video-in-response-to-text-queries/)
Esta tecnología supone un avance espectacular del creador de ChatGPT, que también podría llevar la preocupación por los deepfakes y las copias de contenido con licencia a un nuevo nivel.