Incidentes Asociados

Voz profunda
La tecnología deepfake se ha vuelto increíblemente sofisticada a lo largo de los años, lo que nos permite resucitar las voces de los muertos y engañar a Justin Bieber para que desafíe a peleas a cienciólogos famosos. Algunas personas incluso lo están utilizando para fines más delictivos.
Tal fue el caso de un banco de los Emiratos Árabes Unidos que fue engañado por delincuentes que usaron la clonación de voz de IA para robar $ 35 millones. Documentos judiciales descubiertos recientemente por Forbes revelaron que los estafadores utilizaron la voz profundamente falsa de un ejecutivo de la empresa para engañar al gerente de un banco y transferir los millones a su posesión a principios de 2020.
El supuesto ejecutivo dijo que su empresa estaba a punto de realizar una adquisición y necesitaba el dinero para hacerlo. El gerente del banco reconoció la voz del ejecutivo por haber trabajado con él antes. Entonces, creyendo que todo estaba bien, autorizó la transferencia, directamente a las cuentas de los delincuentes.
Se busca: ladrones de bancos AI
Emiratos Árabes Unidos ha solicitado ahora la ayuda de investigadores estadounidenses para rastrear aproximadamente 400.000 dólares que ingresaron en cuentas bancarias en Estados Unidos, según los documentos. Los investigadores de Dubai creen que la operación involucró al menos a 17 personas que usaron tecnología de "voz profunda" y enviaron dinero a bancos de todo el mundo.
Si bien es sorprendente, este es en realidad el segundo caso conocido de delincuentes que usan una voz falsa para intentar robar un banco. En 2019, los delincuentes usaron IA para tratar de hacerse pasar por la voz de un ejecutivo para robar $243,000, según The Wall Street Journal.
Tenga la seguridad de que, a medida que la tecnología detrás de los deepfakes se refina cada vez más, veremos surgir muchos más intentos de fraude en el futuro.