Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 1496

Incidentes Asociados

Incidente 1476 Reportes
Reported AI-Cloned Voice Used to Deceive Hong Kong Bank Manager in Purported $35 Million Fraud Scheme

Loading...
Ladrones de bancos roban $ 35 millones mediante Deepfaking Boss's Voice
futurism.com · 2021

Voz profunda

La tecnología deepfake se ha vuelto increíblemente sofisticada a lo largo de los años, lo que nos permite resucitar las voces de los muertos y engañar a Justin Bieber para que desafíe a peleas a cienciólogos famosos. Algunas personas incluso lo están utilizando para fines más delictivos.

Tal fue el caso de un banco de los Emiratos Árabes Unidos que fue engañado por delincuentes que usaron la clonación de voz de IA para robar $ 35 millones. Documentos judiciales descubiertos recientemente por Forbes revelaron que los estafadores utilizaron la voz profundamente falsa de un ejecutivo de la empresa para engañar al gerente de un banco y transferir los millones a su posesión a principios de 2020.

El supuesto ejecutivo dijo que su empresa estaba a punto de realizar una adquisición y necesitaba el dinero para hacerlo. El gerente del banco reconoció la voz del ejecutivo por haber trabajado con él antes. Entonces, creyendo que todo estaba bien, autorizó la transferencia, directamente a las cuentas de los delincuentes.

Se busca: ladrones de bancos AI

Emiratos Árabes Unidos ha solicitado ahora la ayuda de investigadores estadounidenses para rastrear aproximadamente 400.000 dólares que ingresaron en cuentas bancarias en Estados Unidos, según los documentos. Los investigadores de Dubai creen que la operación involucró al menos a 17 personas que usaron tecnología de "voz profunda" y enviaron dinero a bancos de todo el mundo.

Si bien es sorprendente, este es en realidad el segundo caso conocido de delincuentes que usan una voz falsa para intentar robar un banco. En 2019, los delincuentes usaron IA para tratar de hacerse pasar por la voz de un ejecutivo para robar $243,000, según The Wall Street Journal.

Tenga la seguridad de que, a medida que la tecnología detrás de los deepfakes se refina cada vez más, veremos surgir muchos más intentos de fraude en el futuro.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd