Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4181

Incidentes Asociados

Incidente 8191 Reporte
ProKYC Tool Allegedly Facilitates Deepfake-Based Account Fraud on Cryptocurrency Exchanges

Loading...
Investigación de amenazas de Cato CTRL: ProKYC vende una herramienta de deepfake para ataques de fraude de cuentas
catonetworks.com · 2024

Los investigadores de seguridad de Cato CTRL descubrieron recientemente un actor de amenazas, ProKYC, que vende una herramienta deepfake en el submundo cibercriminal que ayuda a los actores de amenazas a superar la autenticación de dos factores (2FA) para realizar ataques de fraude de cuentas.

La herramienta que se vende está personalizada para apuntar a los intercambios de criptomonedas, específicamente aquellos que autentican a los nuevos usuarios aprovechando un documento emitido por el gobierno y habilitando la cámara de la computadora para realizar reconocimiento facial. Es una herramienta que ha recibido comentarios positivos de los cibercriminales.

Al superar estos desafíos de autenticación, los actores de amenazas pueden crear nuevas cuentas en estos intercambios. Esto se conoce como Fraude de Nueva Cuenta (NAF). La creación de cuentas verificadas pero sintéticas permite operaciones de lavado de dinero, cuentas mula y otras formas de fraude. Según AARP, el fraude de cuentas nuevas representó más de $5.3 mil millones en pérdidas en 2023 (frente a los $3.9 mil millones en 2022).

ProKYC es un actor de amenazas que representa un nuevo nivel de sofisticación, especialmente aquellos que apuntan a instituciones financieras. Este blog incluye una demostración de la herramienta deepfake de ProKYC y describe posibles técnicas de detección, mitigación y prevención de ataques de fraude de cuentas.

Con la autenticación multifactor (MFA), el enfoque generalmente se centra en las contraseñas de un solo uso (OTP). Sin embargo, la MFA consta de tres factores: algo que sabes (como una contraseña), algo que tienes (como una tarjeta inteligente) y algo que eres (como una huella digital). Nos encontramos con la 2FA casi a diario, y no necesariamente en forma de OTP.

Un ejemplo de ello es cuando retiras dinero de un cajero automático. Estás realizando 2FA: insertas tu tarjeta de cajero automático (algo que tienes) e ingresas un código PIN (algo que sabes). Lo mismo ocurre cuando pasas por la inspección fronteriza: proporcionas tu pasaporte (algo que tienes) y el oficial te mira y verifica que eres tú en la foto (algo que eres). La lista continúa.

Los cibercriminales han intentado burlar la 2FA durante décadas utilizando documentos y credenciales falsificados. Sin embargo, las herramientas impulsadas por IA ahora llevan estos esfuerzos a un nuevo nivel.

En el pasado, los estafadores han comprado documentos falsificados en la red oscura. Estos generalmente tenían la forma de un documento escaneado y la calidad variaba según el vendedor.

Si bien algunos de estos productos todavía se ofrecen, es posible que no pasen las pruebas de autenticación actuales. Además, no ofrecen ninguna solución en caso de que el autenticador le solicite que realice una prueba de reconocimiento facial. Entra en escena la herramienta deepfake de ProKYC.

La herramienta deepfake de ProKYC se vende en el mundo cibercriminal clandestino como un medio para superar estos obstáculos. Utiliza tecnologías deepfake para crear documentos falsos, así como para crear videos de las personas falsas en estos documentos que pasarían con éxito un desafío de reconocimiento facial. En un video proporcionado por ProKYC, los compradores potenciales pueden ver una demostración de cómo funciona la herramienta contra ByBit (un intercambio de criptomonedas).

  1. El actor de amenazas crea credenciales falsas y una imagen falsa de una persona. La creación de rostros generados por IA es ahora un producto básico, con sitios como thispersondoesnotexist.com que muestran esta capacidad.

  2. El actor de amenazas aplica estas credenciales a lo que parecería un documento emitido por el gobierno. En este caso, un pasaporte australiano. El resultado es una falsificación de alta calidad que se creó en segundos (a diferencia de pedir documentos falsificados a los cibercriminales en la red oscura). La herramienta presta atención a pequeños detalles, como que aparezcan los sellos "oficiales" sobre la imagen, como ocurre con un pasaporte australiano real.

  3. El actor de la amenaza crea un video usando la imagen falsa. El video está diseñado para cumplir con las instrucciones de los sistemas de reconocimiento facial: mover la cabeza de la persona de izquierda a derecha. Si prestas mucha atención al video, notarás algunas imperfecciones (como el ojo) y una pequeña falla de video al final del video. Sin embargo, es probable que los sistemas de reconocimiento facial los ignoren. No quieres sistemas que sean demasiado estrictos y que puedan crear múltiples alertas de falsos positivos debido a una conexión a Internet lenta, por ejemplo.

  4. El actor de la amenaza inicia un ataque de fraude de cuenta. Se conecta a un intercambio de criptomonedas (ByBit, en este ejemplo). Procede a cargar el pasaporte australiano falsificado. Luego se le pide que abra la cámara de su computadora para realizar el reconocimiento facial. En lugar de eso, la herramienta le permite conectar el video que creó como si fuera la entrada de la cámara.

  5. Siguiendo todos estos pasos, y después de esperar un par de minutos para que se analicen tanto el pasaporte como el video, el atacante recibe la notificación de que la cuenta ha sido verificada.

A nivel tecnológico, la detección de ataques de fraude de cuentas es complicada. Como se mencionó anteriormente, la creación de sistemas de autenticación biométrica que sean súper restrictivos puede resultar en muchas alertas de falsos positivos. Por otro lado, los controles laxos pueden resultar en fraude.

Hay diferentes señales reveladoras de que un documento, una imagen o un video son falsos. Un ejemplo es la calidad de la imagen. Una imagen, y especialmente un video, que es de muy alta calidad (como el de la demostración) son indicativos de un archivo falsificado digitalmente. Otro ejemplo son los fallos en las partes faciales y la inconsistencia en el movimiento de los ojos y los labios durante la autenticación biométrica. Deben tratarse como sospechosos y verificarse manualmente por un humano.

La IA ha recibido mucha atención en los medios, pero los actores de amenazas han estado perfeccionando el uso de tecnologías deepfake durante bastante tiempo.

¿Qué pueden hacer las organizaciones para defenderse de las amenazas de la IA? Cato CTRL recomienda recopilar información sobre amenazas (ya sea de inteligencia humana (HUMINT), inteligencia de código abierto (OSINT) u otros medios) y mantenerse al día con las últimas tendencias en materia de ciberdelito.

Los actores de amenazas seguirán evolucionando y encontrarán formas de emplear nuevas tecnologías y software deepfake para su beneficio. Cato CTRL seguirá compartiendo estos hallazgos para ayudar a las organizaciones a estar al tanto de las últimas amenazas.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd