Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 1497

Incidentes Asociados

Incidente 1476 Reportes
Reported AI-Cloned Voice Used to Deceive Hong Kong Bank Manager in Purported $35 Million Fraud Scheme

Loading...
Los estafadores clonaron la voz del director de la compañía en un atraco bancario de $ 35 millones, encuentra la policía
forbes.com · 2021

La clonación de voz de IA se utiliza en un gran atraco que investigan los investigadores de Dubái, en medio de advertencias sobre el uso de la nueva tecnología por parte de ciberdelincuentes.

A principios de 2020, el director de un banco de Hong Kong recibió una llamada de un hombre cuya voz reconoció: un director de una empresa con la que había hablado antes. El director tenía buenas noticias: su empresa estaba a punto de hacer una adquisición, por lo que necesitaba que el banco autorizara unas transferencias por valor de $35 millones. Se había contratado a un abogado llamado Martin Zelner para coordinar los procedimientos y el gerente del banco podía ver en su bandeja de entrada los correos electrónicos del director y Zelner, confirmando qué dinero se necesitaba para mover a dónde. El gerente del banco, creyendo que todo parecía legítimo, comenzó a hacer las transferencias.

Lo que no sabía era que había sido engañado como parte de una estafa elaborada, en la que los estafadores habían utilizado tecnología de "voz profunda" para clonar el discurso del director, según un documento judicial descubierto por Forbes en el que los EAU. ha buscado la ayuda de los investigadores estadounidenses para rastrear $ 400,000 de fondos robados que ingresaron a cuentas en los EE. UU. Mantenidas por Centennial Bank. Los Emiratos Árabes Unidos, que está investigando el atraco que afectó a entidades dentro del país, cree que fue un esquema elaborado, que involucró al menos a 17 personas, que envió el dinero robado a cuentas bancarias en todo el mundo.

Se dieron pocos detalles más en el documento, sin proporcionar ninguno de los nombres de las víctimas. La Fiscalía de Dubái, que dirige la investigación, no había respondido a las solicitudes de comentarios al momento de la publicación. Martin Zelner, un abogado con sede en EE. UU., también fue contactado para hacer comentarios, pero no había respondido al momento de la publicación.

Es solo el segundo caso conocido de estafadores que supuestamente usan herramientas de modelado de voz para llevar a cabo un atraco, pero parece haber tenido mucho más éxito que el primero, en el que los estafadores usaron la tecnología para hacerse pasar por un director ejecutivo de una empresa de energía con sede en el Reino Unido en un intento de robar $ 240,000 en 2019, según el Wall Street Journal.

Los Emiratos Árabes Unidos El caso muestra cuán devastadoras pueden ser estas estafas de alta tecnología y aterriza en medio de advertencias sobre el uso de la IA para crear las llamadas imágenes y voces profundamente falsas en el ciberdelito.

“Las falsificaciones profundas de audio y visuales representan el desarrollo fascinante de la tecnología del siglo XXI, pero también son potencialmente increíblemente peligrosas y representan una gran amenaza para los datos, el dinero y las empresas”, dice Jake Moore, ex oficial de policía del Departamento de Policía de Dorset en el Reino Unido y ahora un experto en ciberseguridad en la empresa de seguridad ESET. “Actualmente estamos en la cúspide de los actores maliciosos que cambian la experiencia y los recursos para usar la última tecnología para manipular a las personas que inocentemente desconocen los reinos de la tecnología falsa profunda e incluso su existencia.

“La manipulación de audio, que es más fácil de orquestar que hacer videos falsos profundos, solo aumentará en volumen y sin la educación y la conciencia de este nuevo tipo de vector de ataque, junto con mejores métodos de autenticación, es probable que más empresas sean víctimas de conversaciones muy convincentes.”

Una vez que una tecnología confinada al ámbito de las travesuras ficticias como Misión: Imposible, la clonación de voz ahora está ampliamente disponible. Varias nuevas empresas tecnológicas están trabajando en tecnologías de voz de IA cada vez más sofisticadas, desde Aflorithmic de Londres hasta Respeecher de Ucrania y Resemble.AI de Canadá. La tecnología causó revuelo en los últimos meses con la revelación de que el fallecido Anthony Bourdain hizo sintetizar su voz para un documental sobre su vida. Mientras tanto, reconociendo el potencial para el uso malicioso de la IA, un puñado de empresas, como la firma de seguridad Pindrop valorada en 900 millones de dólares, ahora afirman que pueden detectar voces sintetizadas y, por lo tanto, prevenir fraudes.

Si las grabaciones de su discurso están disponibles en línea, ya sea en las redes sociales, YouTube o en el sitio web de un empleador, es muy posible que haya una batalla secreta por el control de su voz sin que usted lo sepa.

ACTUALIZACIÓN: Después de la publicación, los E.A.U. El Ministerio de Asuntos Exteriores y Cooperación Internacional se puso en contacto con Forbes para señalar que el banco afectado estaba en Hong Kong, no dentro de los Emiratos Árabes Unidos, aunque los investigadores de Dubái estaban dirigiendo la investigación. El artículo se actualizó el 22 de octubre de 2022 para reflejar eso.

En un comunicado, SE Hamid Al Zaabi, director general de los Emiratos Árabes Unidos. La Oficina Ejecutiva de Lucha contra el Lavado de Dinero y el Financiamiento del Terrorismo agregó: “Incluso con incidentes que ocurran fuera de los Emiratos Árabes Unidos, trabajaremos en estrecha colaboración con los socios encargados de hacer cumplir la ley en todo el mundo para identificar y detectar a las personas que a sabiendas participan en prácticas engañosas como el fraude de impostores. . Los Emiratos Árabes Unidos luego perseguirá con todo el peso de la ley a estas personas, asegurándose de que rindan cuentas y sean llevados ante la justicia rápidamente”.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd