Incidentes Asociados

Amazon se ha visto obligado a desechar su sistema de contratación de IA después de que se descubriera que estaba sesgado contra las candidatas.
La IA fue desarrollada en 2014 por Amazon como una forma de filtrar a la mayoría de los candidatos para proporcionar a la empresa las cinco mejores personas para un puesto. En 2015 se descubrió que no estaba calificando a los solicitantes de una manera neutral en cuanto al género, lo cual es un gran problema y va en contra de los intentos de Amazon de nivelar el campo de juego al hacer que una IA objetiva tome las primeras decisiones.
Resulta que el problema radica en cómo se entrenó el sistema. Como ocurre con todo en IA, la falta de diversidad en la industria llevó a que se capacitara casi en su totalidad en CV masculinos. Esto significó que, al igual que estaba aprendiendo a detectar los patrones en el reclutamiento durante un período de 10 años, también estaba aprendiendo a devaluar los CV de las mujeres.
LEER A CONTINUACIÓN: ¿Qu é podemos hacer con el problema de la diversidad de la tecnología?
Según Reuters, el sistema aprendió por sí mismo que los candidatos masculinos eran preferibles a las mujeres. Rebajó los CV si encontraba palabras como "mujeres" y penalizaba a los graduados de universidades exclusivamente femeninas.
Si bien Amazon recodificó el software para que la IA fuera neutral a estos términos, se dio cuenta de que esto no garantizaba que la tecnología encontraría otros métodos para discriminar a las mujeres, según el informe.
El equipo, establecido en el centro de ingeniería de Amazon en Edimburgo, creó 500 modelos concentrados en funciones y ubicaciones de trabajo detalladas. También se le enseñó al sistema a reconocer alrededor de 50,000 términos que aparecían en los CV de candidatos anteriores.
La tecnología aprendió a asignar poca importancia a las habilidades comunes entre los solicitantes de TI, favoreciendo los términos que se encuentran más comúnmente en los currículums de los ingenieros masculinos, como "ejecutado" y "capturado", según el informe.
LEER A CONTINUACIÓN: ¿Las cuotas de diversidad ayudan o dificultan a las mujeres en la tecnología?
El modelo utilizado en el sistema de IA tenía otros problemas que condujeron a que se recomendaran candidatos no calificados para una variedad de trabajos inadecuados.
Esto finalmente llevó a Amazon a desconectar al equipo ya que los ejecutivos "perdieron la esperanza" sobre el proyecto, dijeron fuentes anónimas a Amazon. No se podía confiar únicamente en la herramienta para clasificar a los candidatos.
La firma ahora usa una "versión muy diluida" del motor de reclutamiento para llevar a cabo "tareas rudimentarias".