Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4515

Incidentes Asociados

Incidente 63430 Reportes
Alleged Deepfake CFO Scam Reportedly Costs Multinational Engineering Firm Arup $25 Million

Loading...
Reality Defender ataca el fraude de deepfake de voz en el sector bancario
biometricupdate.com · 2025

A medida que la tecnología deepfake evoluciona, la variedad y sofisticación de los ataques de phishing continúa aumentando. Las organizaciones pueden preguntarse cómo protegerse contra ataques deepfake que pueden provocar pérdidas financieras significativas y daños a la reputación.

Reality Defender está comprometida a abordar el problema de los deepfake y tiene dos recursos gratuitos que muestran cómo hacerlo.

Un estudio de caso descargable de la empresa de detección de deepfake de Nueva York analiza cómo una de las instituciones financieras más grandes del mundo utiliza las herramientas de Reality Defender para mitigar las amenazas de deepfake en los centros de contacto y proteger a sus clientes de alto patrimonio neto del fraude impulsado por IA.

Además, un seminario web a pedido analiza ejemplos reales compartidos de fraudes deepfake en centros de llamadas y examina por qué las medidas de seguridad tradicionales ya no son suficientes para combatir el phishing de voz deepfake (vishing).

“Las cifras recientes indican un aumento del 60 por ciento en los ataques de phishing impulsados por IA, lo que refleja la rápida adopción de la IA generativa por parte de los ciberdelincuentes”, escribe Gabe Regan, vicepresidente de participación humana de Reality Defender, en un blog reciente sobre la detección de deepfake. “Tradicionalmente, las estafas de phishing se basaban en correos electrónicos o mensajes de texto diseñados para engañar a las víctimas para que revelaran información confidencial. En la nueva era de las deepfakes, los atacantes están utilizando manipulaciones de voz generadas por IA para llevar las tácticas de phishing a un nuevo nivel”.

Las voces familiares permiten a los deepfakes aprovecharse de la confianza innata de los empleados

A esta altura, casi todo el mundo en el sector tecnológico conoce la historia del desconsolado empleado de Arup en Hong Kong que transfirió 25 millones de dólares durante una videollamada a petición de un ejecutivo que resultó ser un deepfake.

Las llamadas de este tipo son rutinarias en el sector financiero. En muchos sentidos, el teléfono sigue siendo una herramienta principal para realizar negocios en la industria. Eso lo pone en riesgo, dice Regan.

“El sector de los servicios financieros es un objetivo principal de las estafas de vishing y deepfake (https://www.biometricupdate.com/202501/deepfake-ring-in-hong-kong-busted-for-us4-37m-in-romance-investment-scams) debido a su gran dependencia de la comunicación verbal para las transacciones críticas”.

Señala un alarmante aumento del 393 por ciento en los ataques de phishing durante el año pasado en los sectores de finanzas y seguros. “Los deepfakes son el segundo incidente de ciberseguridad más frecuente experimentado por las empresas en los últimos 12 meses, y los expertos predicen que las industrias estadounidenses sufrirán 40 mil millones de dólares en pérdidas por fraudes deepfake para 2027”.

Si bien la proliferación de la mensajería instantánea y las llamadas fraudulentas han hecho que la gente desconfíe del teléfono, en la mayoría de los escenarios laborales, las personas tienen una confianza inherente en las voces familiares. Los cumplidos también pueden ser un arma para el phishing: un reciente Informe Global Threat Intelligence de Blackberry indica cómo los “halagos o la urgencia en solicitudes inesperadas de networking profesional” pueden usarse como un señuelo para el phishing.

Cuatro formas de reforzar las defensas contra el fraude deepfake

Regan enumera cuatro medidas proactivas que las organizaciones pueden tomar para protegerse de los ataques deepfake en todo el espectro.

Las tecnologías de detección avanzadas son clave. El análisis forense y el monitoreo en tiempo real pueden identificar pistas sutiles y anomalías vocales en el habla que los sistemas tradicionales de verificación KYC no están equipados para detectar.

Los protocolos de autenticación biométrica mejorada (https://www.biometricupdate.com/202412/biometric-authentication-mdls-digital-wallets-and-passkeys-on-the-cusp) y la autenticación multifactor (MFA) para transacciones de alto valor agregan capas adicionales de seguridad.

Los empleados deben conocer la amenaza, por lo que la capacitación y la concientización son cruciales. Y deben poder responder, lo que requiere una planificación de respuesta a incidentes que establezca protocolos claros en el caso de ataques habilitados con deepfake.

Regan dice que "al combinar herramientas avanzadas de detección de inteligencia artificial (https://www.biometricupdate.com/202408/deepfake-detection-firms-buy-build-and-buddy-up-to-combat-growing-threat), protocolos de autenticación robustos y una capacitación integral de los empleados, las organizaciones pueden construir una defensa más sólida contra estos ataques sofisticados".

Las billeteras de identidad digital ofrecen otro aspecto de la prevención del fraude por deepfake

Otra herramienta que lleva la lucha contra los deepfakes (https://www.biometricupdate.com/202410/firms-use-ai-to-keep-reality-from-unreeling-amid-global-deepfake-pandemic) son las billeteras de identidad digital. Según un informe reciente (https://www.weforum.org/stories/2025/01/how-ai-driven-fraud-challenges-the-global-economy-and-ways-to-combat-it/) del Foro Económico Mundial, “las billeteras de identidad digital abordan múltiples vulnerabilidades al fraude, incluidas las asociadas con la IA”.

“Pueden incorporar tecnologías avanzadas como la verificación facial 1:1, la verificación de rostros duplicados y la detección de vida, lo que las hace mucho más resistentes a los intentos de suplantación de identidad impulsados por deepfake y a los ataques a gran escala”, afirma el WEC.

Señala que siete estados atribuyeron a ID.me, la billetera de identificación digital más grande de los EE. UU., el mérito de ayudar a prevenir más de $270 mil millones en fraudes durante la pandemia.

“Las billeteras de identidad digital que aprovechan una buena biometría para combatir las falsificaciones profundas y las estafas ofrecen una forma segura y escalable para que las organizaciones verifiquen que las personas que buscan acceder a sus beneficios y servicios en línea son quienes dicen ser”.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd