Incidentes Asociados
La policía de los Emiratos Árabes Unidos investiga un robo a un banco en el que los delincuentes presuntamente utilizaron inteligencia artificial (IA) deepfake para clonar la voz del director de la empresa y convencer al gerente del banco de que transfiriera 35 millones de dólares.
A medida que la tecnología deepfake evoluciona para brindar nuevas oportunidades, también lo hacen las amenazas que conlleva. Si bien algunos pensábamos que la pérdida de empleos impulsada por la automatización sería la mayor preocupación en una sociedad impulsada por la IA, ha surgido una nueva ola de desafíos. El reconocimiento facial, las falsificaciones de audio y video (creadas mediante la manipulación de voces y apariencias) cuando se abusa de ellas pueden representar una grave amenaza para la privacidad y la seguridad de las personas, como se ha visto en los últimos casos de fraude.
Esquema elaborado de voz profunda
A principios de 2020, en Hong Kong, un gerente de banco recibió lo que creyó ser una llamada de voz del director de una empresa cuya voz conocía, alguien con quien había hablado en varias ocasiones. Este director llamó para darle buenas noticias y pedirle un favor: que autorizara transferencias por valor de 35 millones de dólares para la adquisición de una empresa.
El director afirmó haber contratado a un abogado llamado Martin Zelner para coordinar la adquisición. El gerente del banco pudo ver correos electrónicos tanto del director como de Zelner en su bandeja de entrada, confirmando los montos exactos de las transferencias. Desconociendo la tecnología de voz profunda, y con la confirmación escrita a la vista, actuó en consecuencia. Transferió el monto total a varias cuentas en Estados Unidos y, en un abrir y cerrar de ojos, 35 millones de dólares desaparecieron. Los investigadores de los Emiratos Árabes Unidos que lideran la investigación creen que al menos 17 personas estuvieron involucradas en este esquema elaborado.
Actualmente, estamos a punto de que actores maliciosos desvíen su experiencia y recursos hacia el uso de la tecnología más avanzada para manipular a personas que, inocentemente, desconocen el alcance de la tecnología deepfake e incluso su existencia.
Jake Moore, experto en ciberseguridad de la empresa de seguridad ESET
El primer intento reportado de este tipo de fraude tuvo lugar en el Reino Unido en 2019, cuando estafadores intentaron robar 240.000 dólares de una empresa energética imitando la voz del director ejecutivo con la ayuda de IA. A diferencia de Hong Kong, este intento no tuvo éxito porque se identificó como fraude a tiempo.
La IA ha superado el valle inquietante
Si el plan de Hong Kong no te convence y crees en tu capacidad para distinguir una voz o un rostro humano de uno creado por IA, un nuevo estudio publicado en las Actas de la Academia Nacional de Ciencias (PNAS) te desmiente. El estudio, realizado por Hany Farid, profesor de la Universidad de California en Berkeley, y Sophie J. Nightingale, profesora de la Universidad de Lancaster (Inglaterra), sugiere que estamos en una etapa en la que los humanos ya no pueden distinguir entre rostros reales y rostros generados por IA.
Los perfiles fraudulentos en línea son un buen ejemplo. Las fotos de pasaporte fraudulentas. Aun así, las fotos tienen un uso nefasto... Pero donde la cosa se va a complicar es con los vídeos y el audio. > Hany Farid, profesor de la Universidad de California
Según la investigación, tendríamos una probabilidad ligeramente mayor de elegir con precisión entre una imagen real y una sintética si lanzáramos una moneda al aire. Los participantes del estudio pudieron reconocer imágenes falsas menos de la mitad de las veces. Para ser precisos, la puntuación media fue del 48,2 %. Podemos afirmar con seguridad que las creaciones contemporáneas de IA han superado el valle inquietante.
Lo más inquietante, sin embargo, es la sección de la investigación que muestra que las personas tienen una tendencia un 7,7 % mayor a confiar en las imágenes generadas por IA que en los rostros reales. Al pedirles que calificaran un conjunto de rostros reales y ficticios según su sensación de fiabilidad, los participantes encontraron los rostros generados por IA un 7,7 % más fiables que los reales. Este hallazgo arroja nueva luz sobre la idea errónea de "nunca me podría pasar a mí", que puede ser muy peligrosa en el mundo en constante evolución de hoy.
Nos sorprendió mucho este resultado porque nuestra motivación era encontrar una vía indirecta para mejorar el rendimiento, y pensamos que la confianza sería eso, con rostros reales que evocan esa sensación de mayor confianza.
Sophie J. Nightingale, profesora de la Universidad de Lancaster, Inglaterra
Protégete
Por muy inquietantes que sean estos hallazgos, aún existen hábitos que podemos practicar para minimizar nuestras posibilidades de ser víctimas de la tecnología deepfake y otras estafas:
- Recuerda que los avatares están entre nosotros y son comunes. No todo lo que ves en línea es real. De hecho, las estafas y los ataques de phishing aumentan cada día, y es casi imposible discernirlos a simple vista.
- Obtenga toda la ayuda que necesite: existen excelentes soluciones de seguridad avanzadas, como Lookout, que ofrecen protección contra malware y Navegación segura. Analizarán todos los enlaces en los que haga clic en redes sociales, mensajes de texto y en línea, y bloquearán las amenazas antes de que puedan perjudicarle.
- Siempre haga un esfuerzo adicional para identificar a una empresa o persona que le inste a hacer algo o a preguntar sobre datos confidenciales. El sentido de urgencia es un truco común para convencer a las personas de que proporcionen información rápidamente. Dirígete directamente a la fuente (haz algunas llamadas telefónicas, visítala en persona si es necesario) para verificar la autenticidad de la solicitud recibida. Nunca compartas información digitalmente si no puedes verificar su identidad con total certeza.