Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 5354

Incidentes Asociados

Incidente 11132 Reportes
Financial Times Journalist Martin Wolf Reports AI-Generated Investment Scam Using His Likeness on Instagram and Facebook

Loading...
Jugando al "golpe topo" con Meta por mis avatares fraudulentos
ft.com · 2025

Tengo un álter ego o, como se le conoce ahora en internet, un avatar. Mi avatar se parece a mí y, al menos, suena un poco como yo. Aparece constantemente en Facebook e Instagram. Compañeros que entienden las redes sociales mucho mejor que yo han intentado eliminarlo. Pero al menos hasta ahora han fracasado.

¿Por qué estamos tan empeñados en eliminar esta versión aparentemente plausible de mí mismo? Porque es un fraude, un "deepfake". Peor aún, también es literalmente un fraude: intenta que la gente se una a un grupo de inversión que supuestamente dirijo. Alguien lo ha diseñado para engañar a la gente, explotando las nuevas tecnologías, mi nombre y reputación, y los del Financial Times. Debe morir. ¿Pero podemos lograr que lo maten?

Conocí mi avatar por primera vez el 11 de marzo de 2025. Un antiguo compañero me lo contó y yo lo presenté de inmediato a los expertos del Financial Times.

Resultó que aparecía en un anuncio en Instagram de un grupo de WhatsApp que supuestamente dirigía yo. Eso significa que Meta, propietaria de ambas plataformas, se estaba lucrando indirectamente con el fraude. Fue una sorpresa. Alguien estaba llevando a cabo un fraude financiero en mi nombre. Era tan grave que Meta se estaba beneficiando de ello.

Mi colega experto contactó con Meta y, tras unas idas y venidas, logró que eliminaran los anuncios ofensivos. Por desgracia, ese no fue el final del asunto. En las semanas siguientes, varias personas, algunas a quienes conocía personalmente y otras que sabían quién era, me informaron sobre nuevas publicaciones. En cada ocasión, tras recibir la notificación, Meta nos informó que las habían eliminado. Además, recientemente me inscribí en un nuevo sistema de Meta que utiliza tecnología de reconocimiento facial para identificar y eliminar este tipo de estafas.

En resumen, sentíamos que estábamos controlando este mal. Sí, había sido un poco como "golpea al topo", pero la cantidad de topos que veíamos parecía ser baja y seguir disminuyendo. Esto resultó ser erróneo. Tras examinar los datos relevantes, otro colega experto me comentó recientemente que había al menos tres vídeos deepfake diferentes y varias imágenes retocadas con Photoshop que reproducían más de 1700 anuncios con ligeras variaciones en Facebook e Instagram. Los datos, de la Biblioteca de Anuncios de Meta, muestran que los anuncios llegaron a más de 970 000 usuarios solo en la UE, donde la normativa exige que las plataformas tecnológicas informen de dichas cifras.

"Dado que todos los anuncios están en inglés, es probable que esto represente solo una parte de su alcance total", señaló mi colega. Es de suponer que muchas más cuentas del Reino Unido también los vieron.

Estos anuncios fueron comprados por diez cuentas falsas, y aparecieron nuevas después de que algunas fueran baneadas. ¡Es como luchar contra la Hidra!

Y eso no es todo. Hay una dolorosa diferencia, en mi opinión, entre saber que las plataformas de redes sociales se utilizan para estafar a la gente y ser yo mismo parte involuntaria de una estafa de este tipo. Esto ha sido una gran sorpresa. Entonces, me pregunto, ¿cómo es posible que una empresa como Meta, con sus inmensos recursos, incluyendo herramientas de inteligencia artificial, no pueda identificar y desmantelar este tipo de fraudes automáticamente, sobre todo cuando se les informa de su existencia? ¿Es realmente tan difícil o no lo intentan, como sugiere Sarah Wynn-Williams en su excelente libro Careless People?

Nos hemos puesto en contacto con funcionarios del Departamento de Cultura, Medios de Comunicación y Deporte, quienes nos han indicado las políticas publicitarias de Meta, que establecen que «los anuncios no deben promocionar productos, servicios, estrategias u ofertas mediante prácticas engañosas o confusas identificadas, incluidas aquellas destinadas a estafar a las personas para obtener dinero o información personal». De igual manera, la Ley de Seguridad en Línea exige que las plataformas protejan a los usuarios del fraude.

Un portavoz de Meta declaró: "Suplantar la identidad de figuras públicas va contra nuestras políticas, por lo que hemos eliminado y desactivado los anuncios, las cuentas y las páginas que se compartieron con nosotros".

Meta se excusó diciendo que "los estafadores son implacables y continuamente desarrollan sus tácticas para intentar evadir la detección, por lo que desarrollamos constantemente nuevas formas de dificultarles el engaño, incluyendo el uso de tecnología de reconocimiento facial". Sin embargo, me cuesta creer que Meta, con sus vastos recursos, no pudiera hacerlo mejor. Simplemente no debería difundir este tipo de fraudes.

Mientras tanto, tenga cuidado. Nunca ofrezco asesoramiento sobre inversiones. Si ve un anuncio de este tipo, es una estafa. Si ha sido víctima de esta estafa, comparta su experiencia con el Financial Times en visual.investigations@ft.com. Necesitamos que se eliminen todos los anuncios para saber si Meta está solucionando este problema.

Sobre todo, este tipo de fraude debe cesar. Si Meta no puede hacerlo ¿quién lo hará?

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd