Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Traducido por IA

Incidente 1100: Un audio falso que se hace pasar por el CEO Karim Toubba ataca a un empleado de LastPass a través de WhatsApp.

Traducido por IA
Descripción:
Traducido por IA
Un empleado de LastPass fue víctima de un deepfake de audio que suplantaba al director ejecutivo Karim Toubba a través de WhatsApp. El mensaje utilizaba inteligencia artificial que clonaba la voz en un intento de ingeniería social para crear urgencia y eludir los protocolos de seguridad. El empleado detectó las señales de alerta, reportó el incidente y no se produjo ninguna infracción. LastPass compartió el incidente públicamente para concienciar sobre las campañas de fraude basadas en deepfakes dirigidas a ejecutivos y empresas.
Editor Notes: This incident reportedly occurred on 04/10/2024. It was ingested into the AI Incident Database on 06/13/2025.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Alleged: Unknown deepfake technology developer y Unknown voice cloning technology developer developed an AI system deployed by Unknown scammers y Unknown scammer impersonating Karim Toubba, which harmed Karim Toubba , LastPass employee , Employees of LastPass y General public.
Sistemas de IA presuntamente implicados: Unknown deepfake technology , Unknown voice cloning technology y WhatsApp

Estadísticas de incidentes

ID
1100
Cantidad de informes
2
Fecha del Incidente
2024-04-10
Editores
Daniel Atherton

Informes del Incidente

Cronología de Informes

+1
Intento de llamada deepfake de audio ataca a empleado de LastPass
LastPass esquiva una estafa de deepfake: frustran intento de suplantación de identidad del CEO
Intento de llamada deepfake de audio ataca a empleado de LastPass

Intento de llamada deepfake de audio ataca a empleado de LastPass

blog.lastpass.com

LastPass esquiva una estafa de deepfake: frustran intento de suplantación de identidad del CEO

LastPass esquiva una estafa de deepfake: frustran intento de suplantación de identidad del CEO

hackread.com

Intento de llamada deepfake de audio ataca a empleado de LastPass
blog.lastpass.com · 2024
Traducido por IA

Durante los últimos años, la comunidad de inteligencia de amenazas cibernéticas ha estado preocupada por la mayor proliferación de la tecnología "deepfake" y su posible uso por parte de estafadores contra empresas o individuos. Los "deepfak…

LastPass esquiva una estafa de deepfake: frustran intento de suplantación de identidad del CEO
hackread.com · 2024
Traducido por IA

El gigante de la gestión de contraseñas LastPass evitó por poco una posible brecha de seguridad después de que un empleado de la compañía fuera víctima de una estafa deepfake. El incidente, detallado en una entrada del blog de LastPass, inv…

Variantes

Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

A Chinese Tech Worker at Zhihu Fired Allegedly via a Resignation Risk Prediction Algorithm

A Chinese Tech Worker at Zhihu Fired Allegedly via a Resignation Risk Prediction Algorithm

Feb 2022 · 4 informes
The DAO Hack

The DAO Hack

Jun 2016 · 24 informes
Reported AI-Cloned Voice Used to Deceive Hong Kong Bank Manager in Purported $35 Million Fraud Scheme

Reported AI-Cloned Voice Used to Deceive Hong Kong Bank Manager in Purported $35 Million Fraud Scheme

Jan 2020 · 6 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

A Chinese Tech Worker at Zhihu Fired Allegedly via a Resignation Risk Prediction Algorithm

A Chinese Tech Worker at Zhihu Fired Allegedly via a Resignation Risk Prediction Algorithm

Feb 2022 · 4 informes
The DAO Hack

The DAO Hack

Jun 2016 · 24 informes
Reported AI-Cloned Voice Used to Deceive Hong Kong Bank Manager in Purported $35 Million Fraud Scheme

Reported AI-Cloned Voice Used to Deceive Hong Kong Bank Manager in Purported $35 Million Fraud Scheme

Jan 2020 · 6 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • d414e0f