Incidentes Asociados

Pero todavía usa la entonación y el comportamiento para ayudar con las decisiones de contratación.
Es posible que los buscadores de empleo ahora necesiten impresionar no solo a los posibles jefes, sino también a los algoritmos de inteligencia artificial, ya que los empleadores seleccionan a los candidatos haciéndoles responder preguntas de la entrevista en un video que luego es evaluado por una máquina.
HireVue, un proveedor líder de software para examinar a los candidatos a un puesto en función de una evaluación algorítmica, dijo el martes que eliminará una característica controvertida de su software: analizar las expresiones faciales de una persona en un video para discernir ciertas características.
Los solicitantes de empleo seleccionados por HireVue se sientan frente a una cámara web y responden preguntas. Su comportamiento, entonación y habla se alimenta a un algoritmo que asigna ciertos rasgos y cualidades.
HireVue dice que una "auditoría algorítmica" de su software realizada el año pasado muestra que no alberga sesgos. Pero el Centro de Información de Privacidad Electrónica sin fines de lucro había presentado una queja contra la empresa ante la Comisión Federal de Comercio en 2019.
El CEO de HireVue, Kevin Parker, reconoce que la protesta pública por el uso de software para analizar las expresiones faciales en video fue parte del cálculo. “Estaba agregando algo de valor para los clientes, pero no valía la pena preocuparse”, dice.
La auditoría algorítmica fue realizada por una firma externa, O'Neil Risk Consulting and Algorithmic Auditing. La compañía no respondió a las solicitudes de comentarios.
Alex Engler, miembro de la Institución Brookings que ha estudiado la contratación de IA, dice que la idea de usar la IA para determinar la capacidad de alguien, ya sea basada en video, audio o texto, es descabellada. Él dice que también es problemático que el público no pueda examinar tales afirmaciones.
“Hay partes en las que el aprendizaje automático probablemente pueda ayudar, pero las entrevistas totalmente automatizadas, en las que se hacen inferencias sobre el desempeño laboral, eso es terrible”, dice. “La inteligencia artificial moderna no puede hacer esas inferencias”.
HireVue dice que alrededor de 700 empresas, incluidas GE, Unilever, Delta y Hilton, utilizan su tecnología. El software requiere que los solicitantes de empleo respondan a una serie de preguntas en un video grabado. Luego, el software de la compañía analiza varias características, incluido el idioma que usan, su habla y, hasta ahora, sus expresiones faciales. Luego proporciona una evaluación de la idoneidad del solicitante para un trabajo, así como una medida de rasgos que incluyen "confianza", "inteligencia emocional" y "capacidad cognitiva".
Parker dice que la compañía ayudó a proyectar más de 6 millones de videos el año pasado, aunque a veces esto implicó simplemente transcribir las respuestas para un entrevistador en lugar de realizar una evaluación automática de los candidatos. Agrega que algunos clientes permiten que los candidatos opten por no participar en la selección automatizada. Y dice que HireVue ha desarrollado formas de evitar penalizar a los candidatos con conexiones de Internet irregulares, refiriendo automáticamente a esos candidatos a un ser humano.
Los expertos en inteligencia artificial advierten que los algoritmos entrenados con datos de solicitantes de empleo anteriores pueden perpetuar los sesgos existentes en la contratación. Lindsey Zuloaga, científica de datos en jefe de HireVue, dice que la compañía detecta sesgos de género, raza y edad al recopilar esa información en datos de entrenamiento y buscar signos de sesgo.
Pero reconoce que puede ser más difícil saber si el sistema está sesgado por factores como los ingresos o el nivel educativo, o si podría verse afectado por algo como un tartamudeo.
“Me sorprende que estén descartando esto, ya que era una característica clave del producto que estaban comercializando”, dice John Davisson, asesor principal de EPIC. “Esa es la fuente de muchas preocupaciones en torno a la recopilación de datos biométricos, así como estas audaces afirmaciones sobre la posibilidad de medir rasgos psicológicos, inteligencia emocional, actitudes sociales y cosas por el estilo”.
El uso del análisis facial para determinar emociones o rasgos de personalidad es controvertido; algunos expertos advierten que la ciencia subyacente es defectuosa.
Lisa Feldman Barrett, profesora de la Universidad Northeastern que estudia el análisis de las emociones, dice que el rostro de una persona por sí solo no revela emoción o carácter. "Solo con mirar a alguien sonriendo, realmente no puedes decir nada sobre ellos, excepto tal vez que tienen buenos dientes", dice ella. "Es una mala idea hacer inferencias psicológicas y, por lo tanto, determinar los resultados de las personas basándose únicamente en datos faciales".