Incidente 1117: Actores vinculados con Corea del Norte presuntamente usan deepfakes de ejecutivos de IA en ataques de phishing de Zoom dirigidos a empleados de Web3
Descripción: Un supuesto esquema de phishing, en el que participaron actores vinculados a Corea del Norte, utilizó supuestos vídeos deepfake de ejecutivos de la empresa, generados por IA, para engañar a un empleado de Web3 durante una llamada falsa de Zoom. Según informes, el objetivo fue engañado para que instalara malware para macOS camuflado en una "extensión de Zoom", lo que condujo a la implementación de spyware, un keylogger y un ladrón de monederos de criptomonedas. Los atacantes supuestamente utilizaron Telegram y dominios falsos de Zoom para orquestar la brecha.
Editor Notes: See also Incident 644: Alleged State-Sponsored Hackers Escalate Purported Phishing Attacks Using Artificial Intelligence.
Entidades
Ver todas las entidadesAlleged: Unknown voice cloning technology developers y Unknown deepfake technology developers developed an AI system deployed by North Korea , Lazarus Group , BlueNoroff y Government of North Korea, which harmed Zoom , Web3 , Unnamed Web3 employee , Truth , National security and intelligence stakeholders , macOS users , Epistemic integrity y Cryptocurrency infrastructure.
Sistemas de IA presuntamente implicados: Zoom , Unknown voice cloning technology , Unknown deepfake technology , Telegram , macOS y Cryptocurrency wallets
Estadísticas de incidentes
ID
1117
Cantidad de informes
1
Fecha del Incidente
2025-06-22
Editores
Daniel Atherton
Applied Taxonomies
Risk Subdomain
A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
4.3. Fraud, scams, and targeted manipulation
Risk Domain
The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
- Malicious Actors & Misuse
Entity
Which, if any, entity is presented as the main cause of the risk
Human
Timing
The stage in the AI lifecycle at which the risk is presented as occurring
Post-deployment
Intent
Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
Intentional
Informes del Incidente
Cronología de Informes
Loading...
Ha salido a la luz una nueva campaña de ciberataques del grupo BlueNoroff, vinculado a Corea del Norte, dirigida a un empleado de la industria Web3 mediante llamadas deepfake de Zoom y malware para macOS. Investigadores de seguridad afirman…
Variantes
Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?
Incidentes Similares
Selected by our editors
North Korea's Kimsuky Group Reportedly Uses AI-Generated Military ID Deepfakes in Phishing Campaign
· 1 informe
Did our AI mess up? Flag the unrelated incidents
Incidentes Similares
Selected by our editors
North Korea's Kimsuky Group Reportedly Uses AI-Generated Military ID Deepfakes in Phishing Campaign
· 1 informe
Did our AI mess up? Flag the unrelated incidents


