Incidentes Asociados
SAN FRANCISCO (Reuters) - Los especialistas en aprendizaje automático de Amazon.com Inc descubrieron un gran problema: a su nuevo motor de reclutamiento no le gustaban las mujeres.
El equipo había estado construyendo programas de computadora desde 2014 para revisar los currículos de los solicitantes de empleo con el objetivo de mecanizar la búsqueda de los mejores talentos, dijeron a Reuters cinco personas familiarizadas con el esfuerzo.
La automatización ha sido clave para el dominio del comercio electrónico de Amazon, ya sea dentro de los almacenes o impulsando las decisiones de precios. La herramienta de contratación experimental de la compañía usó inteligencia artificial para otorgar a los candidatos puntajes de una a cinco estrellas, al igual que los compradores califican los productos en Amazon, dijeron algunas personas.
“Todos querían este santo grial”, dijo una de las personas. "Literalmente querían que fuera un motor en el que les daré 100 currículums, escupirá los cinco primeros y los contrataremos".
Pero en 2015, la empresa se dio cuenta de que su nuevo sistema no calificaba a los candidatos para trabajos de desarrollador de software y otros puestos técnicos de manera neutral en cuanto al género.
Esto se debe a que los modelos informáticos de Amazon fueron entrenados para examinar a los solicitantes mediante la observación de patrones en los currículos enviados a la empresa durante un período de 10 años. La mayoría provino de hombres, un reflejo del dominio masculino en la industria tecnológica.
En efecto, el sistema de Amazon se enseñó a sí mismo que los candidatos masculinos eran preferibles. Penalizaba los currículums que incluían la palabra "femenino", como en "capitana del club de ajedrez femenino". Y rebajó la calificación de los graduados de dos universidades exclusivamente para mujeres, según personas familiarizadas con el asunto. No especificaron los nombres de las escuelas.
Amazon editó los programas para hacerlos neutrales a estos términos particulares. Pero eso no era garantía de que las máquinas no idearan otras formas de clasificar a los candidatos que pudieran resultar discriminatorias, dijeron las personas.
La compañía de Seattle finalmente disolvió el equipo a principios del año pasado porque los ejecutivos perdieron la esperanza en el proyecto, según las personas, que hablaron bajo condición de anonimato. Los reclutadores de Amazon observaron las recomendaciones generadas por la herramienta al buscar nuevas contrataciones, pero nunca se basaron únicamente en esas clasificaciones, dijeron.
Amazon se negó a comentar sobre los desafíos de la tecnología, pero dijo que la herramienta "nunca fue utilizada por los reclutadores de Amazon para evaluar candidatos". La compañía no dio más detalles. No discutió que los reclutadores miraron las recomendaciones generadas por el motor de reclutamiento.
El experimento de la compañía, que Reuters es el primero en informar, ofrece un estudio de caso sobre las limitaciones del aprendizaje automático. También sirve como una lección para la creciente lista de grandes empresas, incluidas Hilton Worldwide Holdings Inc (HLT.N) y Goldman Sachs Group Inc (GS.N), que buscan automatizar partes del proceso de contratación.
Alrededor del 55 por ciento de los gerentes de recursos humanos de EE. UU. dijeron que la inteligencia artificial, o IA, sería una parte regular de su trabajo en los próximos cinco años, según una encuesta de 2017 realizada por la firma de software de talentos CareerBuilder.
Los empleadores han soñado durante mucho tiempo con aprovechar la tecnología para ampliar la red de contratación y reducir la dependencia de las opiniones subjetivas de los reclutadores humanos. Pero los informáticos como Nihar Shah, que enseña aprendizaje automático en la Universidad Carnegie Mellon, dicen que todavía queda mucho trabajo por hacer.
“Cómo garantizar que el algoritmo sea justo, cómo garantizar que el algoritmo sea realmente interpretable y explicable, eso todavía está bastante lejos”, dijo.
FOTO DE ARCHIVO: Hay folletos disponibles para posibles solicitantes de empleo en el "Día del empleo de Amazon", una feria de trabajo en el Centro de Cumplimiento de Amazon.com en Fall River, Massachusetts, EE. UU., el 2 de agosto de 2017. REUTERS/Brian Snyder/Foto de archivo
LENGUA MASCULINA
El experimento de Amazon comenzó en un momento crucial para el minorista en línea más grande del mundo. El aprendizaje automático estaba ganando terreno en el mundo de la tecnología, gracias a un aumento en el poder de cómputo de bajo costo. Y el departamento de Recursos Humanos de Amazon estaba a punto de embarcarse en una ola de contrataciones: desde junio de 2015, la plantilla global de la empresa se ha más que triplicado a 575.700 trabajadores, según muestran los documentos regulatorios.
Así que creó un equipo en el centro de ingeniería de Amazon en Edimburgo que creció a alrededor de una docena de personas. Su objetivo era desarrollar una IA que pudiera rastrear rápidamente la web y detectar candidatos que valiera la pena reclutar, dijeron las personas familiarizadas con el asunto.
El grupo creó 500 modelos de computadora enfocados en funciones y ubicaciones de trabajo específicas. Les enseñaron a cada uno a reconocer unos 50.000 términos que aparecían en los currículos de candidatos anteriores. Los algoritmos aprendieron a asignar poca importancia a las habilidades que eran comunes entre los solicitantes de TI, como la capacidad de escribir varios códigos de computadora, dijeron las personas.
En cambio, la tecnología favoreció a los candidatos que se describían a sí mismos usando verbos que se encuentran más comúnmente en los currículums de los ingenieros masculinos, como "ejecutado" y "capturado", dijo una persona.
El sesgo de género no fue el único problema. Los problemas con los datos que respaldaron los juicios de los modelos significaron que a menudo se recomendaban candidatos no calificados para todo tipo de trabajos, dijeron las personas. Con el regreso de la tecnología