Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4949

Incidentes Asociados

Incidente 9821 Reporte
Scammers Reportedly Using Deepfake Video Calls to Impersonate Executives in Singapore and Orchestrate Corporate Bank Transfers

Loading...
Las autoridades de Singapur advierten del aumento de las videollamadas corporativas deepfake
finextra.com · 2025

La Fuerza de Policía de Singapur (SPF), la Autoridad Monetaria de Singapur (MAS) y la Agencia de Ciberseguridad de Singapur (CSA) afirman que las víctimas recibían mensajes no solicitados de WhatsApp de estafadores que se hacían pasar por ejecutivos de la empresa para la que trabajaban y los invitaban a unirse a una videollamada de Zoom en vivo.

"Se cree que se utilizó manipulación digital para alterar la apariencia de los estafadores y hacerse pasar por altos ejecutivos", declaran las autoridades. "En algunos casos, las videollamadas también implicaban estafadores que se hacían pasar por funcionarios de la MAS o posibles 'inversores'".

Durante las llamadas, se les indicaba a las víctimas que transfirieran cantidades sustanciales de fondos desde las cuentas bancarias corporativas de su empresa a cuentas bancarias designadas con el pretexto de realizar pagos comerciales, como financiación de proyectos o inversiones. A algunas víctimas también se les pidió que revelaran información personal, como su número de identificación fiscal nacional (NRIC) y datos de su pasaporte.

Las víctimas se percataban posteriormente de su estafa cuando no era posible contactar con los estafadores o al verificar con los ejecutivos y el asesor legal de la empresa, quienes confirmaban que no habían participado en videollamadas ni autorizado transferencias de fondos.

Se recomienda a las empresas que establezcan protocolos para que los empleados verifiquen la autenticidad de cualquier videollamada o mensaje, en particular aquellos que supuestamente provengan de altos ejecutivos o partes interesadas clave, y que busquen indicios que puedan indicar manipulación del audio o el video mediante tecnología de inteligencia artificial.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd