Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 5052

Incidentes Asociados

Incidente 9622 Reportes
Tbilisi-Based Call Center Allegedly Uses AI-Driven Scripts to Defraud Over 6,000 Victims of $35 Million

Incidente 10172 Reportes
Alleged Deepfake Investment Scam in Spain Defrauds 208 Victims of €19 million ($20.9 million)

Loading...
Estafa de IA de última generación clona al bróker Exante y abre una cuenta en JPMorgan para engañar a una víctima estadounidense.
financemagnates.com · 2025

Los clones "normales" son cosa del pasado: Con pasaportes generados por IA, deepfakes y sitios web, los estafadores están llevando a cabo estafas sofisticadas, a gran escala y ultrarrealistas.

"Es cuestión de velocidad", afirmó el Director de Cumplimiento de Exante. "Se necesitan herramientas de IA para copiar y crear rápidamente".

Los estafadores se han vuelto tan sofisticados que incluso las cuentas bancarias tradicionales están a su alcance. En uno de estos casos, abrieron una cuenta bancaria en JPMorgan Chase y estafaron al menos a una víctima en Estados Unidos a través de un clon de Exante, una firma de corretaje que ni siquiera ofrece servicios en ese país. La víctima transfirió los fondos a los estafadores a través de esa cuenta de JPMorgan Chase, según la (verdadera) Exante.

"Consiguieron abrir cuentas reales en JPMorgan Chase usando una dirección estadounidense y también abrieron algunas billeteras de criptomonedas", declaró Natalia Taft, Jefa de Cumplimiento de Exante, a Financemagnates.com.. "Establecieron estos canales para cobrar dinero a sus víctimas".

Financemagnates.com también verificó que el número de ruta y de cuenta corresponden a una cuenta de JP Morgan Chase.

Obtención de una cuenta bancaria

Esto demuestra la sofisticación de los estafadores. Aunque se desconoce cómo abrieron la cuenta de JPMorgan Chase, cabe destacar que la inteligencia artificial (IA) generativa se ha convertido en una herramienta para muchos estafadores. Muchas personas en redes sociales han destacado lo fácil que es crear imágenes de pasaportes falsas utilizando las últimas capacidades de generación de imágenes de ChatGPT, una de las herramientas de IA más utilizadas.

Taft estaba seguro de que utilizaron herramientas de IA en el desarrollo de la plataforma clonada.

Exante no reportó el incidente a JPMorgan Chase, ya que no tiene presencia en EE. UU. ni opera con JP Morgan. Financemagnates.com contactó a JPMorgan Chase, quien escribió: "Estamos investigando esto".

"Han hecho un excelente trabajo", dijo Taft sobre la interfaz del sitio web clonado. "Se necesitan herramientas de inteligencia artificial para copiarla y crearla rápidamente. Para ellos, es un juego de velocidad. Tienen que atacar al mayor número de víctimas posible antes de que los desmantelen".

Taft explicó además que los estafadores incluso "replicaron el tablero de negociación" de Exante. Aunque el sitio web falso mencionaba la dirección de Exante en Chipre (https://www.financemagnates.com/tag/cyprus/), se dirigía a clientes estadounidenses. La plataforma real de Exante no ofrece servicios de trading a clientes estadounidenses.

Tras recibir los depósitos de la víctima, los estafadores incluso la registraron en la plataforma real de Exante. Cuando un gestor de cuentas de Exante contactó al nuevo cliente (víctima de la estafa), le preguntó sobre el dinero perdido en la plataforma falsa de Exante. Aunque no está claro por qué los estafadores registraron a la víctima en la plataforma real de Exante, Taft supone que "es una forma de desviar a las víctimas hacia nosotros, para que vengan a quejarse y nos exijan la devolución de su dinero, mientras que los estafadores desaparecen con el dinero enviado originalmente".

"Buscamos otros ejemplos recientes de estafas similares en Estados Unidos", continuó Taft, "y encontramos bastantes. Esto nos lleva a creer que no fue un caso aislado".

La IA es una gran herramienta para los estafadores, y los reguladores lo saben

Los reguladores también han comenzado a prestar atención a las estafas relacionadas con la IA. La Comisión de Comercio de Futuros de Materias Primas de EE. UU. (CFTC) también emitió un aviso que afirma que «la IA facilita cada vez más a los estafadores la creación de estafas convincentes».

El regulador descubrió que los estafadores utilizan la IA para crear imágenes, voces, vídeos, videochats en directo, perfiles en redes sociales y sitios web falsos que simulan plataformas de negociación financiera reales.

Aunque el uso de imágenes falsas de famosos para promover estafas no es nuevo, las herramientas de IA lo han facilitado. Los anuncios falsos también parecen más reales. Existen herramientas que pueden generar vídeos deepfake con los rostros y las voces de famosos e incluso de políticos para atraer a las víctimas.

"Los estafadores pueden usar las nuevas tecnologías para ocultar su identidad, no solo en fotos publicadas en redes sociales, sino también en videochats que alteran sus rasgos faciales y voces", declaró Melanie Devoe, directora de la Oficina de Educación y Difusión al Cliente (OCEO) de la CFTC. "Distinguir entre lo real y lo falso puede ser difícil. La mejor defensa es no dar nunca dinero a personas que solo conoces en línea".

La CFTC no es la única agencia que advierte sobre la IA en las estafas. La Comisión de Bolsa y Valores (SEC), la Asociación Norteamericana de Administradores de Valores (NASAA) y la Autoridad Reguladora de la Industria Financiera (FINRA) también emitieron una advertencia conjunta sobre el aumento de los fraudes de inversión relacionados con la IA y otras nuevas tecnologías. «Los inversores individuales deben saber que los actores maliciosos están aprovechando la creciente popularidad y complejidad de la IA para atraer a las víctimas a estafas», decía la advertencia.

En diciembre pasado, el Buró Federal de Investigaciones (FBI) también advirtió al público sobre el uso de la IA generativa a gran escala por parte de delincuentes. «La IA generativa reduce el tiempo y el esfuerzo que los delincuentes deben dedicar a engañar a sus víctimas», declaró el FBI, respaldando las observaciones de Taft. Exante también presentó una denuncia formal ante el FBI. Dado que los estafadores ofrecían productos bajo la supervisión de la SEC y la CFTC, el equipo de cumplimiento de Exante presentó denuncias ante ambas agencias, así como ante el Estado de Nueva York y la FinCEN.

Sin embargo, según la comisionada de la CFTC, Kristin Johnson, los reguladores "aún no han explorado completamente el potencial de la IA para abordar las ciberamenazas y el fraude impulsado por ella". Johnson explicó que una encuesta realizada entre participantes del mercado financiero reveló que los actores de las ciberamenazas se benefician de menores barreras de entrada, una automatización cada vez más sofisticada y un menor tiempo de explotación.

"Las empresas se enfrentan a ciberamenazas de actores que incluyen desde estafadores oportunistas con acceso a herramientas avanzadas de IA hasta sofisticados hackers de estados nacionales que implementan ataques dirigidos", añadió Johnson. La IA generativa puede permitir a actores sofisticados ejecutar campañas de phishing más convincentes. Las falsificaciones profundas y campañas similares pueden ser más difíciles de identificar... Como resultado, el tiempo de explotación se está reduciendo y el nivel general de riesgo para las organizaciones financieras está aumentando.

Los estafadores están organizados y realizan operaciones a gran escala

La magnitud de las operaciones de estafa que utilizan falsificaciones profundas y herramientas de IA se puede observar en una investigación reciente del Proyecto de Denuncia de Crimen Organizado y Corrupción (OCCRP), la Televisión Sueca (SVT) y otros 30 medios de comunicación asociados. Descubrieron dos operaciones clandestinas: una dirigida desde centros de llamadas en Georgia y la otra activa en Bulgaria, Chipre y España, pero controlada desde Israel.

La operación georgiana robó 35,3 millones de dólares a más de 6.000 personas entre mayo de 2022 y febrero de 2025. La operación israelí/europea robó al menos 247 millones de dólares a casi 27.000 víctimas entre enero de 2021 y diciembre de 2024.

La investigación también descubrió que uno de los sitios web falsos de comercio de criptomonedas utilizados por los estafadores era AdmiralsFX, que copiaba la marca de Admirals, un bróker real de forex y CFD.

Los reguladores estadounidenses también han advertido que plataformas de inversión en línea no registradas, así como personas o empresas sin licencia, están promocionando sistemas de comercio de IA con afirmaciones falsas como: "¡Nuestro sistema patentado de comercio de IA no puede perder!" o "¡Utilice IA para seleccionar acciones ganadoras garantizadas!".

"En realidad, estos estafadores están ejecutando planes de inversión que se aprovechan de la popularidad de la IA", señalaron la SEC y otras agencias.

La sofisticada naturaleza de las estafas de inversión impulsadas por IA también se hizo evidente en una última redada policial española, que arrestó a seis personas por participar en una estafa que robó más de 20 millones de dólares a al menos 208 víctimas. Los estafadores utilizaron anuncios deepfake con figuras públicas conocidas, afirmando altos rendimientos en inversiones en criptomonedas. En ocasiones, se hicieron pasar por asesores financieros o mostraron un falso interés romántico para engañar a las víctimas.

"Las víctimas no fueron seleccionadas al azar; en cambio, algoritmos seleccionaron a aquellos cuyos perfiles coincidían con las búsquedas de los ciberdelincuentes", declaró la policía española. "Una vez seleccionadas, publicaron campañas publicitarias en los sitios web o redes sociales que utilizaban, ofreciéndoles inversiones en criptomonedas con altos rendimientos y cero riesgo de pérdida de activos; inversiones que, obviamente, resultaron ser una estafa".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd