Incidente 1021: Un solicitante de empleo que realizó una falsificación de identidad supuestamente utilizó herramientas de inteligencia artificial para postularse a un puesto remoto en una startup de seguridad estadounidense.
Descripción: La startup de autenticación de voz Pindrop Security informó que un candidato a un puesto de trabajo utilizó software deepfake y otras herramientas de IA en un intento de estafa. Esto forma parte de una tendencia creciente entre los estafadores internacionales que utilizan herramientas de IA para solicitar empleos remotos en EE. UU., a veces con éxito.
Editor Notes: Please also refer to Incidents 1117 and in particular 1118 for information on alleged North Korean remote workers using generative AI tools to secure remote work positions in Western countries.
Herramientas
Nuevo InformeNueva RespuestaDescubrirVer Historial
El Monitor de Incidentes y Riesgos de IA de la OCDE (AIM) recopila y clasifica automáticamente incidentes y riesgos relacionados con la IA en tiempo real a partir de fuentes de noticias reputadas en todo el mundo.
Entidades
Ver todas las entidadesAlleged: Unknown generative AI developers y Unknown deepfake technology developer developed an AI system deployed by Unknown international job applicants y scammers, which harmed Pindrop Security y Companies hiring for remote positions.
Sistemas de IA presuntamente implicados: Unknown deepfake technology apps y AI deepfake generation tools
Estadísticas de incidentes
ID
1021
Cantidad de informes
1
Fecha del Incidente
2025-04-08
Editores
Daniel Atherton
Informes del Incidente
Cronología de Informes
Loading...

Una imagen proporcionada por Pindrop Security muestra a un candidato falso, al que la empresa apodó "Iván X", un estafador que utiliza tecnología de IA deepfake para ocultar su rostro, según Vijay Balasubramaniyan, director ejecutivo de Pin…
Variantes
Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?
Incidentes Similares
Selected by our editors
Did our AI mess up? Flag the unrelated incidents
Loading...

Hackers Break Apple Face ID
· 24 informes
Loading...

Deepfake Obama Introduction of Deepfakes
· 29 informes
Incidentes Similares
Selected by our editors
Did our AI mess up? Flag the unrelated incidents
Loading...

Hackers Break Apple Face ID
· 24 informes
Loading...

Deepfake Obama Introduction of Deepfakes
· 29 informes