Incidentes Asociados

Una imagen proporcionada por Pindrop Security muestra a un candidato falso, al que la empresa apodó "Iván X", un estafador que utiliza tecnología de IA deepfake para ocultar su rostro, según Vijay Balasubramaniyan, director ejecutivo de Pindrop.
Cuando la startup de autenticación de voz Pindrop Security publicó recientemente una vacante, un candidato destacó entre cientos.
El solicitante, un programador ruso llamado Iván, parecía reunir todas las condiciones necesarias para el puesto de ingeniería senior. Sin embargo, durante una entrevista por vídeo el mes pasado, el reclutador de Pindrop notó que las expresiones faciales de Iván no coincidían con sus palabras.
Esto se debe a que el candidato, a quien la empresa ha apodado "Iván X", era un estafador que utilizaba software deepfake y otras herramientas de IA generativa para conseguir un puesto en la empresa tecnológica, según Vijay Balasubramaniyan, director ejecutivo y cofundador de Pindrop.
"La generación de IA ha difuminado la línea entre ser humano y ser máquina", afirmó Balasubramaniyan. "Lo que observamos es que las personas utilizan identidades, rostros y voces falsos para conseguir empleo, llegando incluso a intercambiar su rostro con el de otra persona que se presenta al trabajo".
Las empresas llevan mucho tiempo combatiendo los ataques de hackers que buscan explotar vulnerabilidades en su software, empleados o proveedores. Ahora, ha surgido otra amenaza: candidatos que no son quienes dicen ser, que utilizan herramientas de IA para falsificar identificaciones con foto, generar historiales laborales y proporcionar respuestas durante las entrevistas.
El auge de los perfiles generados por IA significa que, para 2028, a nivel mundial, 1 de cada 4 candidatos será falso, según la firma de investigación y asesoría Gartner.
El riesgo para una empresa de contratar a un candidato falso puede variar, dependiendo de las intenciones de la persona. Una vez contratado, el impostor puede instalar malware para exigir un rescate a una empresa o robar datos de sus clientes, secretos comerciales o fondos, según Balasubramaniyan. En muchos casos, los empleados fraudulentos simplemente cobran un salario que de otro modo no podrían obtener, afirmó.
Las empresas de ciberseguridad y criptomonedas han experimentado un aumento reciente de solicitantes de empleo falsos, según informaron expertos del sector a CNBC. Dado que las empresas suelen contratar para puestos remotos, representan objetivos valiosos para los actores maliciosos, señalaron estas personas.
Ben Sesser, director ejecutivo de BrightHire, comentó que se enteró del problema por primera vez hace un año y que el número de candidatos fraudulentos ha aumentado drásticamente este año. Su empresa ayuda a más de 300 clientes corporativos de los sectores financiero, tecnológico y sanitario a evaluar a posibles empleados mediante entrevistas en vídeo.
"Los humanos suelen ser el punto débil de la ciberseguridad, y el proceso de contratación es inherentemente humano, con muchas transferencias y la participación de muchas personas diferentes", afirmó Sesser. Se ha convertido en un punto débil que la gente intenta exponer.
Pero el problema no se limita a la industria tecnológica. Más de 300 empresas estadounidenses contrataron inadvertidamente a impostores vinculados a Corea del Norte para trabajos de TI, incluyendo una importante cadena de televisión nacional, un fabricante de defensa, un fabricante de automóviles y otras empresas de la lista Fortune 500, según denunció el Departamento de Justicia en mayo.
Los trabajadores utilizaron identidades estadounidenses robadas para solicitar trabajos remotos y desplegaron redes remotas y otras técnicas para ocultar su verdadera ubicación, según el Departamento de Justicia. Finalmente, enviaron millones de dólares en salarios a Corea del Norte para ayudar a financiar el programa de armas del país, según denunció el Departamento de Justicia.
Ese caso, que involucraba a una red de presuntos facilitadores, entre ellos un ciudadano estadounidense (https://www.wsj.com/politics/national-security/american-it-scammer-helped-north-korea-fund-nuclear-weapons-program-u-s-says-65430aa7), expuso una pequeña parte de lo que las autoridades estadounidenses han descrito como una extensa red internacional de miles de trabajadores de TI con vínculos con Corea del Norte. Desde entonces, el Departamento de Justicia ha presentado más casos (https://www.cnbc.com/2024/12/12/north-koreans-charged-identity-theft-extortion-conspiracy-doj.html) que involucran a trabajadores de TI norcoreanos.
Los falsos solicitantes de empleo no dan tregua, como demuestra la experiencia de Lili Infante, fundadora y directora ejecutiva de CAT Labs. Su startup, con sede en Florida, se encuentra en la intersección de la ciberseguridad y las criptomonedas, lo que la hace especialmente atractiva para los actores maliciosos.
"Cada vez que publicamos una oferta de empleo, recibimos 100 espías norcoreanos postulándose", dijo Infante. "Al ver sus currículums, se ven increíbles; usan todas las palabras clave que buscamos".
Infante explicó que su empresa se apoya en una empresa de verificación de identidad para descartar candidatos falsos, parte de un sector emergente que incluye empresas como iDenfy, Jumio y Socure.
Un cartel de búsqueda del FBI muestra sospechosos que, según la agencia, son trabajadores de TI de Corea del Norte, oficialmente llamada República Popular Democrática de Corea.
El sector de los empleados falsos se ha expandido más allá de los norcoreanos en los últimos años para incluir a grupos criminales ubicados en Rusia, China, Malasia y Corea del Sur, según Roger Grimes, un veterano consultor de seguridad informática.
Irónicamente, algunos de estos trabajadores fraudulentos serían considerados de alto rendimiento en la mayoría de las empresas, afirmó.
"A veces hacen mal su trabajo, y otras veces lo hacen tan bien que algunas personas me han dicho que lamentan haber tenido que despedirlos", dijo Grimes.
Su empleador, la empresa de ciberseguridad KnowBe4, declaró en octubre que contrató accidentalmente a un ingeniero de software norcoreano.
El trabajador utilizó inteligencia artificial para alterar una foto de archivo, combinándola con una identidad estadounidense válida pero robada, y superó las verificaciones de antecedentes, incluyendo cuatro entrevistas en video, según la empresa. Solo fue descubierto después de que la empresa detectara actividad sospechosa proveniente de su cuenta.
A pesar del caso del Departamento de Justicia y algunos otros incidentes publicitados, los gerentes de contratación de la mayoría de las empresas generalmente desconocen los riesgos de los candidatos falsos, según Sesser de BrightHire.
"Son responsables de la estrategia de talento y otros aspectos importantes, pero estar en la primera línea de seguridad históricamente no ha sido uno de ellos", afirmó. "La gente cree no experimentarlo, pero creo que es más probable que simplemente no se den cuenta de que está sucediendo".
A medida que mejore la calidad de la tecnología deepfake, el problema será más difícil de evitar, afirmó Sesser.
En cuanto a "Ivan X", Balasubramaniyan, de Pindrop, explicó que la startup utilizó un nuevo programa de autenticación por video que creó para confirmar que se trataba de un fraude deepfake.
Si bien Ivan afirmaba estar ubicado en el oeste de Ucrania, su dirección IP indicaba que en realidad se encontraba a miles de kilómetros al este, en una posible instalación militar rusa cerca de la frontera con Corea del Norte, según la compañía.
Pindrop, respaldada por Andreessen Horowitz y Citi Ventures, se fundó hace más de una década para detectar fraudes en interacciones de voz, pero pronto podría adoptar la autenticación por video. Entre sus clientes se incluyen algunos de los bancos, aseguradoras y compañías de salud más importantes de Estados Unidos. "Ya no podemos confiar en lo que vemos ni en nuestros oídos", dijo Balasubramaniyan. "Sin tecnología, estamos en peor situación que un mono con una moneda al azar".