Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4952

Incidentes Asociados

Incidente 63430 Reportes
Alleged Deepfake CFO Scam Reportedly Costs Multinational Engineering Firm Arup $25 Million

Incidente 98315 Reportes
Scammers Reportedly Used AI Voice Clone and YouTube Footage to Impersonate WPP CEO in Unsuccessful Scam Attempt

Loading...
Las estafas deepfake aumentan y afectan a más de la mitad de las empresas
cybersecuritydive.com · 2024
  • Poco más de la mitad de las empresas en EE. UU. y el Reino Unido han sido víctimas de una estafa financiera impulsada por tecnología "deepfake", y el 43 % ha sido víctima de estos ataques, según una encuesta realizada por el proveedor de software financiero Medius.
  • De los 1533 profesionales financieros de EE. UU. y el Reino Unido encuestados por Medius, el 85 % consideraba estas estafas una amenaza "existencial" para la seguridad financiera de su organización, según un informe sobre los resultados publicado el mes pasado. Los deepfakes son imágenes, vídeos o grabaciones de audio manipulados por inteligencia artificial que, aunque falsos, resultan convincentes.
  • "Cada vez más delincuentes consideran las estafas deepfake como una forma eficaz de obtener dinero de las empresas", declaró Ahmed Fessi, director de transformación e información de Medius, en una entrevista. Estas estafas “combinan técnicas de phishing con ingeniería social, además del poder de la IA”.

La IA generativa podría permitir que las pérdidas por fraude alcancen los 40 000 millones de dólares en EE. UU. para 2027, según declaró Deloitte, una de las cuatro grandes firmas de contabilidad, en un informe de mayo.

“Ya existe toda una industria artesanal en la dark web que vende software fraudulento desde 20 $ hasta miles de dólares”, señala el informe. “Esta democratización del software malicioso está reduciendo la eficacia de varias herramientas antifraude actuales”.

En mayo, el grupo británico de ingeniería Arup estuvo en el punto de mira tras informes de que estafadores lograron desviar 25 millones de dólares de la compañía utilizando tecnología deepfake para hacerse pasar por el director financiero de la organización. Tras una videoconferencia con el falso director financiero y otros empleados generados mediante inteligencia artificial, un miembro del personal de Arup realizó varias transacciones a cinco cuentas bancarias diferentes de Hong Kong antes de descubrir el fraude.

En otro ejemplo, The Guardian informó en mayo que el grupo publicitario WPP había sido objeto de una estafa deepfake fallida.

Contenido en línea, como un video de YouTube o un podcast con un CEO o CFO, puede proporcionar a los delincuentes material para una deepfake convincente que luego puede usarse en una estafa de suplantación de identidad para engañar a alguien, como un miembro del equipo financiero, y conseguir que entregue fondos de la empresa, afirmó Fessi. Como parte de la estafa, el estafador puede intentar crear una falsa sensación de urgencia para presionar al empleado desprevenido a actuar con rapidez.

En otro tipo de estafa de deepfake, el atacante puede intentar hacerse pasar por un proveedor que trabaja con la empresa, explicó.

Ante la creciente amenaza que representan las deepfakes, Fessi instó a las empresas a tomar medidas defensivas basadas en tres pilares principales:

  • Educación: "Todos en la organización deben tener un conocimiento básico de qué es una deepfake, cómo detectarla y qué medidas tomar si son el objetivo", afirmó. Las empresas también deberían considerar complementar esto con capacitación especializada para altos ejecutivos y gerentes, así como para empleados de departamentos de alto riesgo. * Proceso: Según Fessi, las empresas necesitan implementar mecanismos de control para minimizar el riesgo de que los empleados realicen pagos inadvertidamente a estafadores, como requerir la autorización de al menos dos personas para una transferencia bancaria. Las organizaciones también deben prepararse para responder en caso de un ataque de deepfake exitoso. "Es importante documentar y compartir estos procesos con los empleados, especialmente con el personal de finanzas", afirmó.
  • Tecnología: Herramientas como la IA y el aprendizaje automático, combinadas con un proceso de validación multinivel y la segregación de funciones, pueden ayudar a las empresas a detectar transacciones anómalas, afirmó Fessi.
Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd