Incidente 1021: Un solicitante de empleo que realizó una falsificación de identidad supuestamente utilizó herramientas de inteligencia artificial para postularse a un puesto remoto en una startup de seguridad estadounidense.
Descripción: La startup de autenticación de voz Pindrop Security informó que un candidato a un puesto de trabajo utilizó software deepfake y otras herramientas de IA en un intento de estafa. Esto forma parte de una tendencia creciente entre los estafadores internacionales que utilizan herramientas de IA para solicitar empleos remotos en EE. UU., a veces con éxito.
Editor Notes: Please also refer to Incidents 1117 and in particular 1118 for information on alleged North Korean remote workers using generative AI tools to secure remote work positions in Western countries.
Herramientas
Nuevo InformeNueva RespuestaDescubrirVer Historial
El Monitor de Incidentes y Riesgos de IA de la OCDE (AIM) recopila y clasifica automáticamente incidentes y riesgos relacionados con la IA en tiempo real a partir de fuentes de noticias reputadas en todo el mundo.
Entidades
Ver todas las entidadesAlleged: Unknown generative AI developers y Unknown deepfake technology developers developed an AI system deployed by Unknown international job applicants y Unknown scammers, which harmed Pindrop Security y Companies hiring for remote positions.
Sistemas de IA presuntamente implicados: AI deepfake generation tools y Unknown deepfake technology
Estadísticas de incidentes
ID
1021
Cantidad de informes
1
Fecha del Incidente
2025-04-08
Editores
Daniel Atherton
Applied Taxonomies
Risk Subdomain
A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
4.3. Fraud, scams, and targeted manipulation
Risk Domain
The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
- Malicious Actors & Misuse
Entity
Which, if any, entity is presented as the main cause of the risk
Human
Timing
The stage in the AI lifecycle at which the risk is presented as occurring
Post-deployment
Intent
Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
Intentional
Informes del Incidente
Cronología de Informes
Loading...

Una imagen proporcionada por Pindrop Security muestra a un candidato falso, al que la empresa apodó "Iván X", un estafador que utiliza tecnología de IA deepfake para ocultar su rostro, según Vijay Balasubramaniyan, director ejecutivo de Pin…
Variantes
Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?
Incidentes Similares
Selected by our editors
Did our AI mess up? Flag the unrelated incidents
Loading...

Hackers Break Apple Face ID
· 24 informes
Loading...

Deepfake Obama Introduction of Deepfakes
· 29 informes
Incidentes Similares
Selected by our editors
Did our AI mess up? Flag the unrelated incidents
Loading...

Hackers Break Apple Face ID
· 24 informes
Loading...

Deepfake Obama Introduction of Deepfakes
· 29 informes

