Incidentes Asociados
Resumen del análisis:
- Un poco más de la mitad (53 %) de las empresas de los EE. UU. y el Reino Unido han sido víctimas de una estafa financiera impulsada por la tecnología "deepfake", y el 43 % ha sido víctima de este tipo de ataques, según una encuesta realizada por el proveedor de software financiero Medius.
- De los 1533 profesionales financieros de los EE. UU. y el Reino Unido encuestados por Medius, el 85 % consideraba que estas estafas eran una amenaza "existencial" para la seguridad financiera de su organización, según un informe sobre los resultados publicado el mes pasado. Los deepfakes son imágenes, vídeos o grabaciones de audio manipulados por inteligencia artificial que son falsos pero convincentes.
- "Cada vez más delincuentes ven las estafas deepfake como una forma eficaz de obtener dinero de las empresas", dijo Ahmed Fessi, director de transformación e información de Medius, en una entrevista. Estas estafas "combinan técnicas de phishing con ingeniería social, además del poder de la IA".
Dive Insight:
La IA generativa podría permitir que las pérdidas por fraude alcancen los 40 mil millones de dólares en los EE. UU. para 2027, dijo la firma de contabilidad Big Four Deloitte en un informe de mayo.
"Ya existe toda una industria casera en la red oscura que vende software fraudulento por entre 20 y miles de dólares", decía el informe. "Esta democratización de software malicioso está haciendo que varias de las herramientas antifraude actuales sean menos efectivas".
En mayo, el grupo de ingeniería británico Arup estuvo en el centro de atención después de que se informara que unos estafadores habían logrado desviar 25 millones de dólares de la empresa utilizando tecnología deepfake para hacerse pasar por el director financiero de la organización. Tras una videoconferencia con el falso director financiero y otros empleados generados por IA, un miembro del personal de Arup realizó varias transacciones en cinco cuentas bancarias diferentes de Hong Kong antes de descubrir el fraude.
En otro ejemplo, el periódico The Guardian informó en mayo que el grupo publicitario WPP había sido el objetivo de una estafa deepfake fallida (https://www.theguardian.com/technology/article/2024/may/10/ceo-wpp-deepfake-scam).
El contenido en línea, como un video de YouTube o un podcast con un director ejecutivo o un director financiero, puede proporcionar a los delincuentes material para una deepfake convincente que luego se puede usar en una estafa de suplantación de identidad para engañar a alguien, como un miembro del equipo de finanzas, para que entregue los fondos de la empresa, dijo Fessi. Como parte de la estafa, el estafador puede intentar crear una falsa sensación de urgencia para presionar al empleado desprevenido para que actúe rápidamente.
En otro tipo de estafa deepfake, el atacante puede intentar hacerse pasar por un proveedor que trabaja con la empresa, dijo.
En vista de las crecientes amenazas que plantean los deepfakes, Fessi instó a las empresas a tomar medidas defensivas basadas en tres pilares principales:
Educación. "Todos en la organización deben tener un conocimiento básico de qué es un deepfake, cómo detectar uno y qué pasos tomar si son el objetivo", dijo, y agregó que las empresas también deberían considerar complementar esto con capacitación especializada para ejecutivos y gerentes de alto nivel, así como empleados en departamentos de alto riesgo.
Proceso. Las empresas deben tener controles y contrapesos establecidos para minimizar el riesgo de que los empleados realicen pagos inadvertidamente a estafadores, como requerir que al menos dos personas firmen una transferencia bancaria, según Fessi. Las organizaciones también deben prepararse para cómo responderán en caso de un ataque exitoso de deepfake. "Es importante tener estos procesos documentados y compartidos con la fuerza laboral, especialmente el personal de finanzas", dijo.
Tecnología. Herramientas como la inteligencia artificial y el aprendizaje automático, cuando se combinan con un proceso de validación de múltiples niveles y segregación de funciones, pueden ayudar a las empresas a detectar transacciones anómalas, afirmó Fessi.