Incidentes Asociados
Un hombre británico ha perdido cientos de libras tras ser engañado (https://decripto.org/truffe-deepfake-belen-rodriguez-e-fabio-fazio-usati-per-promuovere-falsi-investimenti-crypto/) por una sofisticada estafa en línea que utilizó imágenes y vídeos generados artificialmente para hacerse pasar por la famosa actriz estadounidense Jennifer Aniston. El caso reaviva la alarma (https://www.dailymail.co.uk/news/article-14864301/scammed-hundreds-pounds-AI-deepfake-Jennifer-Aniston.html) por el creciente uso de deepfakes en estafas románticas digitales.
Una relación virtual que duró cinco meses
La víctima, un hombre de 43 años residente en Southampton, Inglaterra, denunció haber mantenido una relación virtual durante unos cinco meses con una figura que creía ser Jennifer Aniston. El contacto había comenzado a través de redes sociales, con mensajes aparentemente inofensivos pero bien estructurados, que con el tiempo se convirtieron en un intercambio emocionalmente intenso.
Se proporcionaron numerosas pruebas para reforzar la ilusión: fotos de la supuesta celebridad, notas de voz con una voz idéntica a la de Aniston, una copia falsificada de su permiso de conducir y, sobre todo, un vídeo en el que la falsa Aniston lo saludaba por su nombre. El vídeo, generado con tecnología deepfake, mostraba movimientos y una expresividad creíbles, compatibles con el contenido real difundido en línea por la actriz.
La víctima declaró que el mensaje estaba lleno de cariño, en perfecta sintonía con las conversaciones que habían mantenido: «Me dijo que me quería. Que era especial». Quería creerlo.
La llamada de auxilio: tarjeta de regalo para Apple
El punto de inflexión de la estafa llegó con una solicitud de dinero. La estafadora, haciéndose pasar por Jennifer Aniston, explicó que tenía dificultades para pagar las suscripciones a servicios de Apple debido a problemas con su cuenta bancaria estadounidense. Luego le pidió al hombre que comprara tarjetas de regalo de Apple para ayudarla, prometiéndole un reembolso rápido y alegando problemas temporales con su equipo de contabilidad. La víctima, ahora emocionalmente involucrada, cedió. Compró tarjetas de regalo por valor de unas 200 libras y envió los códigos por mensaje directo. Cuando las solicitudes se volvieron más insistentes, empezó a dudar. Pero para entonces ya era demasiado tarde.
El momento de la revelación
Solo después de contactar con algunos amigos e investigar más a fondo, el hombre se dio cuenta de que había sido víctima de un engaño. Los videos se habían creado con tecnología de inteligencia artificial, capaz de replicar las expresiones, la voz y el comportamiento de las celebridades de una manera sorprendentemente realista. "Me siento humillada. No soy estúpida, pero estaba sola". Esa voz, esos mensajes... sonaban reales. Quise creerlo, aunque solo fuera por un momento.
Un fenómeno en expansión
Este caso no es aislado. Cada vez más, los estafadores digitales aprovechan los avances en software de generación de voz y visuales para crear identidades sintéticas convincentes. El uso de deepfakes ya no se limita a simples vídeos de parodia, sino que se aplica sistemáticamente en estafas sentimentales, fraudes financieros y manipulaciones a escala global. Según el informe de 2024 de la empresa de ciberseguridad SlowMist, el uso de IA generativa en las llamadas "estafas románticas" aumentó un 215 % en el último año. Las víctimas suelen ser personas solitarias, vulnerables o que buscan conexiones genuinas, explotando el deseo humano de amor y pertenencia.
Celebridades como armas digitales
Jennifer Aniston no es la única víctima involuntaria de estas estafas. En el pasado, las imágenes y las voces de Brad Pitt, Owen Wilson, Scarlett Johansson y Elon Musk también se ha utilizado para llevar a cabo operaciones fraudulentas. En algunos casos, los estafadores incluso han falsificado transmisiones de televisión en vivo o entrevistas, fabricadas digitalmente para aumentar la credibilidad. El objetivo siempre es el mismo: generar confianza, generar participación e inducir a la víctima a proporcionar dinero, datos confidenciales o acceso a cuentas bancarias.
Sin protección real
Actualmente, las plataformas sociales suelen ser lentas o ineficaces para bloquear este tipo de contenido, y la legislación tiene dificultades para adaptarse a los avances tecnológicos. Las denuncias de los usuarios se gestionan fragmentadamente y no existen herramientas preventivas eficaces para distinguir entre un vídeo real y uno generado por IA, especialmente para el usuario promedio. Además, rastrear a los estafadores se complica por el uso de VPN, cuentas ficticias y servidores extranjeros. En el caso del británico, no fue posible rastrear la verdadera identidad de la persona que se escondía tras la falsa Aniston.
La voz de las víctimas
Muchas víctimas, como el hombre de Southampton, evitan la denuncia pública por vergüenza o miedo al ridículo. Pero es precisamente su silencio lo que facilita las cosas para estas víctimas. Patrones que se repiten. En una entrevista con The Sun, la víctima explicó que quería contar su historia para evitar que otros cayeran en la misma trampa: "No se trata solo del dinero. Te quitan algo interior. Te engañan, te utilizan y luego desaparecen. Es devastador".
Una nueva frontera del crimen en línea
La historia del falso romance con Jennifer Aniston es solo el último ejemplo de cómo el uso indebido de la inteligencia artificial está cambiando profundamente el panorama del cibercrimen. Las fuerzas del orden, los gobiernos y las plataformas digitales deberán prepararse rápidamente para afrontar esta amenaza. Mientras tanto, la recomendación es una: nunca confíes ciegamente en lo que ves o escuchas en línea. Incluso si tiene la voz, el rostro y la sonrisa de una estrella de Hollywood.