Incidentes Asociados

Esta primavera, Clive Kabatznik, un inversionista en Florida, llamó a su representante local del Bank of America para discutir una gran transferencia de dinero que planeaba realizar. Luego volvió a llamar.
Excepto que la segunda llamada telefónica no fue del señor Kabatznik. Más bien, un programa de software generó artificialmente su voz y trató de engañar al banquero para que moviera el dinero a otra parte.
Kabatznik y su banquero fueron el objetivo de un intento de estafa de vanguardia que ha llamado la atención de los expertos en ciberseguridad: el uso de inteligencia artificial para generar voces profundas, o interpretaciones vocales que imitan las voces de personas reales.
El problema es todavía lo suficientemente nuevo como para que no exista una explicación exhaustiva de la frecuencia con la que ocurre. Pero un experto cuya compañía, Pindrop, monitorea el tráfico de audio de muchos de los bancos más grandes de Estados Unidos dijo que había visto un aumento en su prevalencia este año y en la sofisticación de los intentos de fraude de voz de los estafadores. Otro gran proveedor de autenticación de voz, Nuance, experimentó su primer ataque deepfake exitoso contra un cliente de servicios financieros a fines del año pasado.
En el caso del señor Kabatznik, el fraude fue detectable. Pero la velocidad del desarrollo tecnológico, la caída de los costos de los programas de inteligencia artificial generativa y la amplia disponibilidad de grabaciones de voces de personas en Internet han creado las condiciones perfectas para que la IA relacionada con la voz. estafas.
Los datos de los clientes, como los datos de cuentas bancarias que han sido robados por piratas informáticos (y que están ampliamente disponibles en los mercados clandestinos) ayudan a los estafadores a realizar estos ataques. Se vuelven aún más fáciles con clientes adinerados, cuyas apariciones públicas, incluidos los discursos, suelen estar ampliamente disponibles en Internet. Encontrar muestras de audio para clientes comunes también puede ser tan fácil como realizar una búsqueda en línea (por ejemplo, en aplicaciones de redes sociales como TikTok e Instagram) del nombre de alguien cuya información de cuenta bancaria ya tienen los estafadores.
"Hay mucho contenido de audio por ahí", dijo Vijay Balasubramaniyan, director ejecutivo y fundador de Pindrop, que revisa los sistemas automáticos de verificación de voz para ocho de los 10 prestamistas más grandes de Estados Unidos.
Durante la última década, Pindrop ha revisado grabaciones de más de cinco mil millones de llamadas recibidas en centros de llamadas administrados por las compañías financieras a las que presta servicios. Los centros manejan productos como cuentas bancarias, tarjetas de crédito y otros servicios ofrecidos por los grandes bancos minoristas. Todos los centros de llamadas reciben llamadas de estafadores, que suelen oscilar entre 1.000 y 10.000 al año. Es común que reciban 20 llamadas de estafadores cada semana, dijo Balasubramaniyan.
Hasta ahora, las voces falsas creadas por programas de computadora representan sólo “un puñado” de estas llamadas, dijo, y comenzaron a ocurrir apenas el año pasado.
La mayoría de los ataques de voz falsos que Pindrop ha visto se han producido en centros de llamadas de servicios de tarjetas de crédito, donde representantes humanos tratan con clientes que necesitan ayuda con sus tarjetas.
Balasubramaniyan le mostró a un periodista una grabación anónima de una de esas llamadas que tuvo lugar en marzo. Aunque es un ejemplo muy rudimentario (la voz en este caso suena robótica, más parecida a un lector electrónico que a una persona), la llamada ilustra cómo podrían ocurrir estafas a medida que la IA se convierte en una estafa. Hace que sea más fácil imitar voces humanas.
Se oye a un banquero saludar al cliente. Luego, la voz, similar a una automática, dice: "Mi tarjeta fue rechazada".
“¿Puedo preguntar con quién tengo el placer de hablar?” responde el banquero.
“Mi tarjeta fue rechazada”, vuelve a decir la voz.
El banquero vuelve a preguntar el nombre del cliente. Se produce un silencio, durante el cual se puede escuchar el débil sonido de las teclas. Según Balasubramaniyan, el número de pulsaciones de teclas corresponde al número de letras del nombre del cliente. El estafador escribe palabras en un programa que luego las lee.
En este caso, el discurso sintético de la persona que llamó llevó al empleado a transferir la llamada a un departamento diferente y marcarla como potencialmente fraudulenta, dijo Balasubramaniyan.
Llamadas como la que compartió, que utilizan tecnología de escritura a texto, son algunos de los ataques más fáciles de defender: los centros de llamadas pueden usar software de detección para detectar pistas técnicas de que el habla se genera por máquina.
"El habla sintética deja artefactos detrás, y muchos algoritmos anti-suplantación de identidad eliminan esos artefactos", dijo Peter Soufleris, director ejecutivo de IngenID, un proveedor de tecnología biométrica de voz.
Pero, como ocurre con muchas medidas de seguridad, se trata de una carrera armamentista entre atacantes y defensores, que ha evolucionado recientemente. Un estafador ahora puede simplemente hablar en un micrófono o escribir un mensaje y pronunciar ese discurso muy rápidamente traducido a la voz del objetivo.
Balasubramaniyan señaló que una IA generativa. El sistema VALL-E de Microsoft podía crear una voz deepfake que decía lo que un usuario deseaba utilizando solo tres segundos de audio muestreado.
En “60 Minutes” de mayo, Rachel Tobac, consultora de seguridad, utilizó un software para [clonar la voz de Sharyn Alfonsi](https://www.tiktok.com/@60 Minutes/video/7235782764333829422) de manera tan convincente, uno de los corresponsales del programa, que engañó a un empleado de “60 Minutos” para que le diera el número de pasaporte de la señora Alfonsi.
El ataque tardó sólo cinco minutos en realizarse, dijo Tobac, directora ejecutiva de SocialProof Security. La herramienta que utilizó estuvo disponible para su compra en enero.
Si bien las aterradoras demostraciones de deepfake son un elemento básico de las conferencias de seguridad, los ataques de la vida real siguen siendo extremadamente raros, dijo Brett Beranek, director general de seguridad y biometría de Nuance, un proveedor de tecnología de voz que Microsoft adquirió en 2021. La única violación exitosa de un El cliente de Nuance, en octubre, le llevó al atacante más de una docena de intentos para lograrlo.
La mayor preocupación de Beranek no son los ataques a los centros de llamadas o sistemas automatizados, como los sistemas biométricos de voz que muchos bancos han implementado. Le preocupan las estafas en las que una persona llama directamente a un individuo.
"Tuve una conversación a principios de esta semana con uno de nuestros clientes", dijo. “Decían, oye, Brett, es fantástico que tengamos nuestro centro de contacto asegurado, pero ¿qué pasa si alguien simplemente llama a nuestro director ejecutivo? ¿Directamente en su teléfono celular y se hace pasar por otra persona?
Eso es lo que ocurrió en el caso del señor Kabatznik. Según la descripción del banquero, parecía estar intentando que ella transfiriera dinero a una nueva ubicación, pero la voz era repetitiva, hablaba por encima de ella y usaba frases confusas. El banquero colgó.
“Era como si estuviera hablando con ella, pero no tenía sentido”, dijo Kabatznik que ella le había dicho. (Un portavoz del Bank of America se negó a permitir que el banquero estuviera disponible para una entrevista).
Después de dos llamadas más como esa en rápida sucesión, el banquero informó del asunto al equipo de seguridad del Bank of America, dijo Kabatznik. Preocupada por la seguridad de la cuenta del Sr. Kabatznik, dejó de responder a sus llamadas y correos electrónicos, incluso los que provenían del verdadero Sr. Kabatznik. Les tomó alrededor de 10 días a los dos restablecer la conexión, cuando el Sr. Kabatznik organizó una visita a su oficina.
"Capacitamos regularmente a nuestro equipo para identificar y reconocer estafas y ayudar a nuestros clientes a evitarlas", dijo William Halldin, portavoz del Bank of America. Dijo que no podía comentar sobre clientes específicos o sus experiencias.
Aunque los ataques son cada vez más sofisticados, surgen de una amenaza básica a la ciberseguridad que existe desde hace décadas: una filtración de datos que revela la información personal de los clientes del banco. De 2020 a 2022, fragmentos de datos personales de más de 300 millones de personas cayeron en manos de piratas informáticos, lo que provocó pérdidas por 8.800 millones de dólares, según la Comisión Federal de Comercio.
Una vez que han recopilado un lote de números, los piratas informáticos examinan la información y la comparan con personas reales. Quienes roban la información casi nunca son las mismas personas que terminan con ella. En cambio, los ladrones lo pusieron a la venta. Los especialistas pueden utilizar cualquiera de los pocos programas de fácil acceso para falsificar los números de teléfono de los clientes objetivo, que es lo que probablemente sucedió en el caso de Kabatznik.
Las grabaciones de su voz son fáciles de encontrar. En internet hay videos de él hablando en una conferencia y [participando](https://m.facebook.com/The-Horseradish- Challenge-613839368770423/videos/clive-kabatznik-takes-a-heaping-spoonful-of-horseradish-for-th/624142671073426/) en una recaudación de fondos.
“Creo que da bastante miedo”, dijo Kabatznik. “El problema es que no sé qué haces al respecto. ¿Simplemente pasas a la clandestinidad y desapareces?