Problema 6687

Un nuevo estudio advierte que los candidatos entrevistados por reclutadores con IA corren el riesgo de ser discriminados si hablan con acento o viven con alguna discapacidad.
Este mes, se han compartido ampliamente en TikTok videos de candidatos interactuando con entrevistadores de video con IA, a veces defectuosos, como parte del proceso de reclutamiento.
El uso del reclutamiento con video con IA ha crecido en los últimos años. HireVue, una empresa de software de reclutamiento con IA utilizada por numerosos empleadores, informó en febrero que, entre 4000 empleadores encuestados en todo el mundo, el uso de IA en la contratación había aumentado del 58 % en 2024 al 72 % en 2025.
Un estudio australiano publicado este mes estima que su uso es significativamente menor (alrededor del 30 % en las organizaciones australianas), pero se espera que aumente en los próximos cinco años.
Sin embargo, el artículo de la Dra. Natalie Sheard, investigadora de la facultad de derecho de la Universidad de Melbourne, advierte que el uso de sistemas de contratación con IA para seleccionar y preseleccionar candidatos puede generar discriminación, debido a los sesgos introducidos por los limitados conjuntos de datos con los que se entrenaron los modelos de IA.
En su investigación, Sheard entrevistó a 18 profesionales de recursos humanos en Australia sobre el uso de la IA en la contratación. De ellos, 13 habían utilizado sistemas de contratación con IA en sus empresas, siendo la herramienta más común los sistemas de análisis de currículos, seguidos de los sistemas de videoentrevistas.
Los conjuntos de datos basados en información limitada que a menudo priorizan los datos estadounidenses sobre los internacionales presentan un riesgo de sesgo en dichos sistemas de IA, afirmó Sheard. Una empresa de sistemas de IA que aparece en la investigación de Sheard, por ejemplo, afirma que solo el 6 % de sus datos de formación de candidatos a puestos de trabajo provienen de Australia o Nueva Zelanda, y que el 36 % de los candidatos incluidos en los datos de formación son blancos.
La misma empresa afirma, según el artículo, que su tasa de error de transcripción de hablantes de inglés en EE. UU. es inferior al 10 %, en promedio. Sin embargo, al evaluar a hablantes no nativos de inglés con acentos de otros países, esa tasa de error aumenta a entre el 12 y el 22 %. Esta última tasa de error corresponde a hablantes no nativos de inglés de China.
"Los datos de entrenamiento provienen del país donde se crean; muchos de ellos se crean en EE. UU., por lo que no reflejan los grupos demográficos que tenemos en Australia", explicó Sheard.
Los participantes en la investigación informaron a Sheard que los hablantes no nativos de inglés o aquellos con una discapacidad que afecta su habla podrían notar que sus palabras no se transcriben correctamente y, por lo tanto, no serían bien valorados por el algoritmo de reclutamiento.
Esto llevó a dos de los participantes a solicitar la confirmación de su proveedor de software de que no perjudicaba a los candidatos con acento. Sheard afirmó que les aseguraron que la IA era "muy buena entendiendo acentos", pero no se les proporcionó ninguna prueba que lo respaldara.
Sheard afirmó que había poca o ninguna transparencia sobre los sistemas de entrevista de IA utilizados, tanto para los posibles candidatos, como para el reclutador o el empleador.
"Este es el problema. En un proceso humano, se puede contactar al reclutador y pedirle su opinión, pero lo que descubrí es que los reclutadores ni siquiera saben por qué se tomaron las decisiones, por lo que no pueden dar su opinión", dijo.
"Eso es un problema para quienes buscan empleo... Es muy difícil determinar quién tiene la responsabilidad, pero sin duda los proveedores y empleadores son legalmente responsables de cualquier discriminación por parte de estos sistemas".
Ningún caso de discriminación por IA ha llegado a los tribunales en Australia, dijo Sheard, y cualquier caso de discriminación debe presentarse primero ante la Comisión Australiana de Derechos Humanos.
En 2022, el comisionado federal de protección del mérito reveló que 11 decisiones de ascenso en Services Australia del año anterior habían sido revocadas, después de que la agencia externalizara el proceso a un especialista en reclutamiento que utilizaba técnicas de selección automatizadas mediante IA, incluyendo pruebas psicométricas, cuestionarios y respuestas en video autograbadas.
Se descubrió que el proceso de selección "no siempre cumplía el objetivo clave de seleccionar a los candidatos más meritorios".
Sheard afirmó que el gobierno laborista albanés, que había regresado, debería considerar una ley específica sobre IA para regular su uso y, potencialmente, fortalecer las leyes antidiscriminación existentes para protegerse contra la discriminación basada en IA.
Este artículo fue modificado el 14 de mayo de 2025. Una versión anterior indicaba incorrectamente que los candidatos a un puesto de trabajo corren el riesgo de ser discriminados si no tienen acento estadounidense. La versión anterior también afirmó incorrectamente que se entrevistó a 23 profesionales de recursos humanos y que el 33% de los solicitantes de empleo en los datos de capacitación eran blancos.