Incidentes Asociados
Los cumplidos comienzan a fluir tan pronto como ella responde a la videollamada. "Wow, eres tan bonita, cariño", dice el hombre al otro lado de la pantalla. Su transmisión de video muestra que es blanco, con cabello corto, probablemente unos años más joven que ella, y está sentado frente a su cámara con una camisa a cuadros.
"Te ves diferente sin esa barba y esas cosas", dice la mujer con acento estadounidense mientras la conversación avanza. El hombre no pierde el ritmo. "Te dije que me iba a afeitar la barba para lucir bien".
Excepto que él no es quien dice ser. Su transmisión de video es una mentira. Y, con barba o sin ella, la cara que la mujer puede ver a través de la videollamada no es la suya: es una falsificación profunda.
En realidad, el hombre es un estafador que usa tecnología de intercambio de rostros para cambiar totalmente su apariencia en tiempo real. En un video de la llamada, filmado por el cómplice del estafador, probablemente a miles de kilómetros de la mujer, se puede ver su rostro real en esta computadora portátil junto con la identidad falsa mientras habla con su víctima.
Este video autograbado es uno de los muchos publicados en línea por estafadores conocidos como Yahoo Boys, un colectivo informal de estafadores, a menudo con sede en Nigeria. El video revela cómo están usando deepfakes e intercambio de rostros para atrapar a las víctimas en estafas románticas, generando confianza con las víctimas usando identidades falsas, antes de engañarlas para que se desprendan de miles de dólares. El año pasado se perdieron más de $650 millones en fraudes románticos, dice el FBI [https://www.ic3.gov/Media/PDF/AnnualReport/2023_IC3Report.pdf].
Un estafador de Yahoo Boys utiliza varios teléfonos y un software de intercambio de rostros contra una víctima. Es una de las dos técnicas que utiliza el grupo para las llamadas en tiempo real.
Los Yahoo Boys han estado experimentando con videoclips deepfake durante unos dos años y pasaron a realizar videollamadas deepfake más en tiempo real durante el último año, dice David Maimon, profesor de la Universidad Estatal de Georgia y director de información sobre fraudes en la empresa de verificación de identidad SentiLink. Maimon ha monitoreado a los Yahoo Boys en Telegram durante más de cuatro años y compartió docenas de videos con WIRED que revelan cómo los estafadores están usando deepfakes.
Una revisión de WIRED de los videos y tres canales asociados de Yahoo Boy en Telegram muestra cómo las técnicas de los estafadores han evolucionado a medida que las aplicaciones deepfake y la inteligencia artificial han mejorado. Es una de las primeras veces que las tácticas específicas y las técnicas extravagantes de los estafadores que usan videollamadas deepfake se han documentado con este detalle.
Los videos muestran a los Yahoo Boys usando la tecnología en configuraciones que involucran computadoras portátiles y teléfonos. En varios videos, los estafadores a menudo muestran descaradamente sus propias caras, así como las de las víctimas a las que están estafando. "No creo que estén haciendo esto porque sean estúpidos", dice Maimon. "Creo que simplemente no les importa y no tienen miedo de las repercusiones".
Los Yahoo Boys son estafadores experimentados y se jactan abiertamente de ello. Se pueden encontrar fotos y videos de sus estafas y reclutamiento en todas las redes sociales, desde Facebook hasta TikTok. Sin embargo, los cibercriminales, que tienen enlaces a estafas por correo electrónico del príncipe nigeriano, son posiblemente los más abiertos en Telegram.
En grupos que contienen miles de miembros, los Yahoo Boys organizan y publicitan sus habilidades individuales para una mezcla heterogénea de estafas. Son hábiles manipuladores sociales que pueden tener efectos duraderos en sus víctimas (https://magazine.atavist.com/the-romance-scammer-on-my-sofa-nigeria-yahoo-boys/). En cientos de publicaciones diarias se publicitan estafas de correo electrónico comerciales (https://www.wired.com/story/business-email-compromise-scams/), estafas de criptomonedas (https://www.wired.com/story/what-is-pig-butchering-scam/) y estafas de suplantación de identidad. Los miembros afirman vender habilidades de edición de fotos y videos y álbumes completos de fotografías explícitas que se pueden usar para crear una personalidad convincente. Se venden identificaciones falsas y perfiles de redes sociales que parecen legítimos. Los "scripts" de estafa se pueden descargar de forma gratuita.
"Los Yahoo Boys tienen elementos de crimen organizado y crimen desorganizado", dice Paul Raffile, analista de inteligencia del Network Contagion Research Institute, que ha investigado cómo los Yahoo Boys practicaban sextorsión contra adolescentes y los ha llevado [hacia suicidio](https://www.bloomberg.com/features/2024-sextortion-teen-suicides/?accessToken=eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJzb3VyY2UiOiJTdWJzY3JpYmVyR2lmdGVkQXJ0aWNsZSIsImlhdCI6MTc "No tienen un líder, no tienen una estructura de gobierno", afirma Raffile, que se organizan en grupos y comparten consejos y sugerencias en línea. Telegram no respondió a la solicitud de comentarios de WIRED sobre los canales de Yahoo Boys, pero los tres canales ya no parecen ser accesibles.
Los estafadores digitales comenzaron a usar deepfakes como parte de sus estafas románticas alrededor de mayo de 2022, dice Maimon. "Lo que la gente hacía era simplemente publicar videos de ellos mismos, cambiar su apariencia y luego enviárselos a la víctima, tratando de atraerlos para que hablen con ellos", dice. Desde entonces, han seguido adelante.
Para crear sus videos, los Yahoo Boys están usando un puñado de software y aplicaciones diferentes. WIRED no nombra el software específico, para limitar la capacidad de las personas de copiar los ataques. Sin embargo, las herramientas que están usando a menudo se anuncian con fines de entretenimiento, como permitir que las personas intercambien sus caras con celebridades o personas influyentes.
Las llamadas deepfake en vivo de los Yahoo Boys se realizan de dos maneras diferentes. En la primera, que se muestra arriba, los estafadores usan una configuración de dos teléfonos y una aplicación de intercambio de caras. El estafador sostiene el teléfono con el que está llamando a su víctima (se los ve principalmente usando Zoom, dice Maimon, pero puede funcionar en cualquier plataforma) y usa su cámara trasera para grabar la pantalla de un segundo teléfono. Este segundo teléfono tiene su cámara apuntando a la cara del estafador y está ejecutando una aplicación de intercambio de caras. A menudo colocan los dos teléfonos en soportes para asegurarse de que no se muevan y usan luces de anillo para mejorar las condiciones para un intercambio de caras en tiempo real, muestran los videos.
La segunda táctica común, que se muestra a continuación, utiliza una computadora portátil en lugar de un teléfono. (WIRED ha difuminado las caras reales en ambos videos). Aquí, el estafador usa una cámara web para capturar su cara y el software que se ejecuta en la computadora portátil cambia su apariencia. Los videos de la configuración muestran que los estafadores pueden ver su propia cara junto con la deepfake alterada, y solo se muestra la imagen manipulada durante la videollamada en vivo.
Maimon dice que él y sus equipos han rastreado a algunas de las víctimas, tanto en videos deepfake como en álbumes de fotos que vende Yahoo Boys, y han tratado de comunicarse con ellas. WIRED no pudo determinar las identidades reales de las víctimas o los estafadores, y no está claro cuántas veces se han utilizado deepfakes. Sin embargo, los videos que parecen mostrar a las víctimas revelan cómo los estafadores establecen una relación con sus víctimas.
Los videos muestran a los estafadores diciéndoles a las personas que los "aman" y frecuentemente elogiando su apariencia. En un video, un estafador dice que quiere viajar a Canadá para encontrarse con su víctima y, cuando lo haga, le pagará "al instante", lo que sugiere que la víctima le ha enviado dinero que el estafador ha prometido falsamente devolver. Otros videos contienen información profundamente personal, lo que muestra los niveles de confianza que los estafadores pueden crear con las personas a las que se dirigen. "Algunas víctimas hablan de sus trastornos alimentarios, hablan de su depresión", dice Maimon.
Los videos probablemente sean solo una instantánea de la actividad de estafas románticas de los Yahoo Boys, y muchos de los videos que ellos mismos publican tienen como objetivo en parte mostrar su capacidad para permitir que otros "compren" el enfoque. Raffile dice que, cuando investigó los grupos en busca de sextorsión, notó que la mayoría de los intercambios de rostros se usaban para estafas románticas. Sin embargo, también hubo casos en los que Yahoo Boys afirmó haber usado generadores de "desnudos" deepfake en fotografías (https://www.wired.com/story/deepfake-nude-generator-chilling-look-at-its-victims/).
Los estafadores pueden ejecutar software de intercambio de rostros en computadoras portátiles. Imita sus expresiones faciales y movimientos de la boca.
La inteligencia artificial potenciará las estafas. Si bien los videos deepfake han existido durante más de media década (https://www.wired.com/story/deepfake-app-ai-porn-fake-reddit/), que se usan principalmente para pornografía no consensuada (https://www.wired.com/story/deepfake-porn-is-out-of-control/), a menudo tienen fallas y son fáciles de detectar. Los labios no se sincronizan cuando las personas hablan y los errores son relativamente triviales de detectar. Sin embargo, la tecnología está mejorando rápidamente y resulta cada vez más fácil de usar para cualquiera.
Algunos de los vídeos de Yahoo Boy son increíbles y evidentes falsificaciones, mientras que otros parecen plausibles. Cuando se ven en directo, en un teléfono móvil, con conexiones inestables, cualquier defecto evidente puede quedar enmascarado, especialmente si un estafador ha pasado meses manipulando socialmente a su víctima.
Rachel Tobac, cofundadora y directora ejecutiva de SocialProof Security, que junto con el director de tecnología de la empresa, Evan Tobac, revisó una selección de vídeos de Yahoo Boy para WIRED, dice que, en general, ha visto que se utilizan algunos cambios de rostro en las estafas románticas durante los últimos 12 meses. "El año pasado, cuando los vi, no eran demasiado convincentes. Este año, han cambiado muchas cosas", dice Rachel Tobac. "Especialmente aquellos en los que pueden cambiar el tono de voz y el aspecto de su rostro; a veces cambian el tono de piel, el pelo, el color de los ojos, todo coincide. Es bastante salvaje".
Los Yahoo Boys parecen utilizar a menudo personajes y rostros ya existentes integrados en las aplicaciones. Los estafadores hablan en gran medida utilizando sus propias voces, aunque en un par de vídeos también pueden haber sido alteradas. En muchos de los vídeos vistos por WIRED, los personajes en pantalla pueden girar la cabeza pero no mover todo el cuerpo. Sus labios y expresiones faciales se mueven con los que hace el rostro del estafador. Las capacidades de estas herramientas sólo mejorarán con el tiempo.
Andrew Newell, director científico de la empresa de verificación de identidad iProov, dice que ha visto un "cambio masivo" en la cantidad de sistemas de intercambio de rostros que se utilizan en el último año, rastreando más de 100 herramientas diferentes. Sólo una fracción de estas herramientas permiten el intercambio de rostros en tiempo real, dice. "Hemos visto avances bastante grandes en términos de lo buenas que son estas herramientas en vivo".
Si bien los Yahoo Boys pueden no desarrollar su propio software o ser técnicamente sofisticados, dice Maimon, son versátiles. Realizarán múltiples estafas a la vez, hablarán con docenas de víctimas a la vez y diferentes personas tendrán las habilidades necesarias para completar una estafa completa. "Hay una evolución constante", dice Maimon.
Ronnie Tokazowski, el principal luchador contra el fraude en Intelligence for Good, que trabaja con víctimas de delitos cibernéticos, dice que debido a que los Yahoo Boys han usado deepfakes para estafas románticas, pasarán a usar la tecnología para sus otras estafas. "Esta es una especie de advertencia temprana que dice: 'Está bien, son realmente buenos haciendo estas cosas. Ahora, ¿qué es lo próximo que van a hacer?'"