Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4638

Incidentes Asociados

Incidente 63430 Reportes
Alleged Deepfake CFO Scam Reportedly Costs Multinational Engineering Firm Arup $25 Million

Loading...
Las estafas deepfake aumentan y afectan al 53% de las empresas
cfodive.com · 2024

Resumen del análisis:

  • Un poco más de la mitad (53 %) de las empresas de los EE. UU. y el Reino Unido han sido víctimas de una estafa financiera impulsada por la tecnología "deepfake", y el 43 % ha sido víctima de este tipo de ataques, según una encuesta realizada por el proveedor de software financiero Medius.
  • De los 1533 profesionales financieros de los EE. UU. y el Reino Unido encuestados por Medius, el 85 % consideraba que estas estafas eran una amenaza "existencial" para la seguridad financiera de su organización, según un informe sobre los resultados publicado el mes pasado. Los deepfakes son imágenes, vídeos o grabaciones de audio manipulados por inteligencia artificial que son falsos pero convincentes.
  • "Cada vez más delincuentes ven las estafas deepfake como una forma eficaz de obtener dinero de las empresas", dijo Ahmed Fessi, director de transformación e información de Medius, en una entrevista. Estas estafas "combinan técnicas de phishing con ingeniería social, además del poder de la IA".

Dive Insight:

La IA generativa podría permitir que las pérdidas por fraude alcancen los 40 mil millones de dólares en los EE. UU. para 2027, dijo la firma de contabilidad Big Four Deloitte en un informe de mayo.

"Ya existe toda una industria casera en la red oscura que vende software fraudulento por entre 20 y miles de dólares", decía el informe. "Esta democratización de software malicioso está haciendo que varias de las herramientas antifraude actuales sean menos efectivas".

En mayo, el grupo de ingeniería británico Arup estuvo en el centro de atención después de que se informara que unos estafadores habían logrado desviar 25 millones de dólares de la empresa utilizando tecnología deepfake para hacerse pasar por el director financiero de la organización. Tras una videoconferencia con el falso director financiero y otros empleados generados por IA, un miembro del personal de Arup realizó varias transacciones en cinco cuentas bancarias diferentes de Hong Kong antes de descubrir el fraude.

En otro ejemplo, el periódico The Guardian informó en mayo que el grupo publicitario WPP había sido el objetivo de una estafa deepfake fallida (https://www.theguardian.com/technology/article/2024/may/10/ceo-wpp-deepfake-scam).

El contenido en línea, como un video de YouTube o un podcast con un director ejecutivo o un director financiero, puede proporcionar a los delincuentes material para una deepfake convincente que luego se puede usar en una estafa de suplantación de identidad para engañar a alguien, como un miembro del equipo de finanzas, para que entregue los fondos de la empresa, dijo Fessi. Como parte de la estafa, el estafador puede intentar crear una falsa sensación de urgencia para presionar al empleado desprevenido para que actúe rápidamente.

En otro tipo de estafa deepfake, el atacante puede intentar hacerse pasar por un proveedor que trabaja con la empresa, dijo.

En vista de las crecientes amenazas que plantean los deepfakes, Fessi instó a las empresas a tomar medidas defensivas basadas en tres pilares principales:

Educación. "Todos en la organización deben tener un conocimiento básico de qué es un deepfake, cómo detectar uno y qué pasos tomar si son el objetivo", dijo, y agregó que las empresas también deberían considerar complementar esto con capacitación especializada para ejecutivos y gerentes de alto nivel, así como empleados en departamentos de alto riesgo.

Proceso. Las empresas deben tener controles y contrapesos establecidos para minimizar el riesgo de que los empleados realicen pagos inadvertidamente a estafadores, como requerir que al menos dos personas firmen una transferencia bancaria, según Fessi. Las organizaciones también deben prepararse para cómo responderán en caso de un ataque exitoso de deepfake. "Es importante tener estos procesos documentados y compartidos con la fuerza laboral, especialmente el personal de finanzas", dijo.

Tecnología. Herramientas como la inteligencia artificial y el aprendizaje automático, cuando se combinan con un proceso de validación de múltiples niveles y segregación de funciones, pueden ayudar a las empresas a detectar transacciones anómalas, afirmó Fessi.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd