Incidentes Asociados
Amazon eliminó una herramienta interna "sexista" que usaba inteligencia artificial para clasificar las solicitudes de empleo.
La IA fue creada por un equipo de la oficina de Amazon en Edimburgo en 2014 como una forma de clasificar automáticamente los CV y seleccionar a los candidatos más prometedores.
Sin embargo, rápidamente aprendió a preferir a los candidatos masculinos sobre los femeninos, según miembros del equipo que hablaron con Reuters.
Se dieron cuenta de que estaba penalizando los CV que incluían la palabra "femenino", como "capitana del club de ajedrez femenino". Según los informes, también rebajó la calificación de los graduados de dos universidades exclusivamente para mujeres.
Descargue la nueva aplicación Microsoft News para recibir noticias actualizadas de las mejores fuentes del mundo, disponible ahora en iOS y Android.
El problema surgió del hecho de que el sistema se entrenó con datos enviados por personas durante un período de 10 años, la mayoría de los cuales procedían de hombres.
© AP Jeff Bezos, fundador y director ejecutivo de Amazon La IA se modificó en un intento de corregir el sesgo. Sin embargo, el año pasado, Amazon perdió la fe en su capacidad de ser neutral y abandonó el proyecto por completo.
Se cree que los reclutadores de Amazon usaron el sistema para ver las recomendaciones al contratar, pero no se basaron en las clasificaciones. Actualmente, las mujeres constituyen el 40% de la fuerza laboral de Amazon.
Stevie Buckley, cofundadora del sitio web de empleo del Reino Unido, Honest Work, que utilizan empresas como Snapchat para reclutar para puestos tecnológicos, dijo que "la premisa básica de esperar que una máquina identifique a los solicitantes de empleo sólidos en función de las prácticas históricas de contratación en su empresa es un método infalible para escalar rápidamente el sesgo inherente y las prácticas de contratación discriminatorias”.
El peligro del sesgo inherente en el uso de algoritmos es un problema común en la industria de la tecnología. No se les dice a los algoritmos que sean sesgados, pero pueden volverse injustos a través de los datos que usan.
© Getty Logotipo de Amazon Jessica Rose, gerente técnica de la empresa emergente de educación FutureLearn y oradora de tecnología, dijo que "el valor de la IA, tal como se usa en el reclutamiento hoy en día, está limitado por el sesgo humano".
"Los desarrolladores y los especialistas en inteligencia artificial tienen los mismos prejuicios que los profesionales del talento, pero a menudo no se nos pide que los interroguemos o los probemos durante el proceso de desarrollo", dijo.
Google tuvo que eliminar la capacidad de buscar fotos de gorilas en su aplicación Google Photos después de que el servicio comenzara a sugerir que las fotografías de personas de color eran en realidad fotografías de gorilas.
El fallido software de contratación de Amazon y los problemas con Google Photos ilustran una de las mayores debilidades del aprendizaje automático, donde las computadoras aprenden a realizar tareas mediante el análisis de datos.
Galería: 24 datos que quizás no conozcas sobre el fundador de Amazon, Jeff Bezos (Fotos)
El mes pasado, IBM lanzó una herramienta diseñada para detectar sesgos en la IA. El kit Fairness 360 permite a los desarrolladores ver claramente cómo funcionan sus algoritmos y qué datos se utilizan para tomar decisiones.
“Teniendo en cuenta los recursos exhaustivos de Amazon y su equipo de ingenieros excepcionalmente talentoso”, dijo el Sr. Buckley, “el hecho de que su herramienta de reclutamiento de IA falló miserablemente sugiere que debemos mantener un escepticismo predeterminado hacia cualquier organización que afirme haber producido una herramienta de IA eficaz para el reclutamiento. .”