Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 5351

Incidentes Asociados

Incidente 11111 Reporte
Reported AI-Generated Video Call Impersonation of Cryptocurrency Analyst Leads to Alleged Malware Installation and Account Theft

CZ advierte que la verificación de video está "fuera de juego" después de que una estafa de deepfake afectara a un analista.
coinedition.com · 2025

El fundador de Binance, Changpeng Zhao, advirtió que la tecnología deepfake impulsada por IA ha hecho que la verificación por videollamada sea poco fiable por motivos de seguridad. También advirtió a los usuarios que eviten instalar software de fuentes no oficiales, incluso si la solicitud proviene de sus amigos, ya que sus cuentas podrían haber sido comprometidas.

La advertencia de CZ se produjo en respuesta a un sofisticado incidente de piratería informática que involucró a la analista de criptomonedas Mai Fujimoto. La analista perdió el control de su cuenta X tras ser víctima de un ataque deepfake durante una videollamada.

Zhao enfatizó que es muy probable que los amigos que solicitan la instalación de software sean hackeados y destacó cómo los ciberdelincuentes explotan las relaciones de confianza para distribuir malware. La advertencia del exdirector ejecutivo de Binance destaca la evolución de los ataques de ingeniería social, que ahora utilizan tecnología avanzada de IA para crear suplantaciones de identidad cada vez más convincentes. Ataque deepfake explota relaciones de confianza

Mai Fujimoto explicó cómo su cuenta principal, @missbitcoin_mai, fue hackeada el 14 de junio mediante un ataque deepfake cuidadosamente planificado. El ataque comenzó cuando la cuenta de Telegram de su amiga fue comprometida, lo que permitió a los atacantes explotar la cuenta e iniciar una videollamada de mala fe. Fujimoto había aceptado la invitación a la llamada de Zoom de buena fe, ya que la comunicación parecía provenir de un contacto conocido.

Durante la videollamada de 10 minutos, Fujimoto pudo ver lo que parecía ser el rostro de su conocido, pero no pudo oírlo. El impostor proporcionó un enlace que decía que resolvería el problema de audio y ofreció instrucciones paso a paso sobre cómo ajustar la configuración. Fujimoto cree que fue entonces cuando se instaló malware en su computadora, lo que posteriormente provocó el robo de su cuenta de redes sociales.

El incidente de Fujimoto demuestra el avance de la IA Deepfake

La tecnología era tan avanzada que Fujimoto permaneció en la llamada, creyendo que estaba hablando con su verdadero conocido. Solo comprendió el nivel de sofisticación del ataque y cómo los atacantes lograron hacerle creer en ellos cuando perdió el acceso a sus cuentas.

Fujimoto reconoció que seguir usando Zoom a pesar de los persistentes problemas de audio debería haberle dado señales de alerta. Sin embargo, atribuyó la elección de la plataforma a la formación en ingeniería de su amigo, asumiendo una preferencia técnica en lugar de reconocerla como una posible táctica de manipulación.

El éxito del ataque se extendió más allá de la vulnerabilidad inicial de X, ya que los hackers obtuvieron acceso a las cuentas de Fujimoto Telegram y MetaMask. Fujimoto ha expresado su preocupación de que su propia imagen pueda ser utilizada en futuros ataques deepfake, advirtiendo a sus contactos que desconfíen de cualquier videollamada en la que aparezca su rostro.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • eeb4352