Incidentes Asociados
Amazon decidió descartar un algoritmo de aprendizaje automático (ML) que estaba creando para ayudar a automatizar el proceso de reclutamiento porque el modelo seguía favoreciendo a los candidatos masculinos, reveló Reuters. La discriminación contra las candidatas se ha atribuido a los conjuntos de datos mayoritariamente dominados por hombres con los que se entrenó.
El proyecto, que se desechó en 2017, estaba destinado a poder revisar las solicitudes de empleo y asignar una puntuación a cada candidato entre una y cinco estrellas. "Literalmente querían que fuera un motor en el que les daré 100 currículums, escupirá los cinco mejores y los contrataremos", afirmó uno de los cinco miembros del equipo que había trabajado en la herramienta que Reuters habló con.
Visite la Cumbre de innovación de aprendizaje automático de Innovation Enterprise en Nueva York del 12 al 13 de diciembre de 2018
El equipo había trabajado en el algoritmo de reclutamiento desde 2014, entrenándolo en currículums que cubrían un período de 10 años. Sin embargo, debido a que la industria de la tecnología está notoriamente dominada por hombres, la mayoría de los currículums en los que se capacitó procedían de hombres. Esto llevó a AI a comenzar a favorecer a los candidatos masculinos en su evaluación simplemente por ser hombres, penalizando los CV simplemente por incluir la palabra "mujeres".
Las preocupaciones sobre el impacto que tienen los conjuntos de datos sesgados en el entrenamiento de IA se están convirtiendo cada vez más en un problema a medida que la investigación de IA continúa acelerándose. A principios de este año, los investigadores del MIT intentaron ilustrar el impacto que pueden tener los conjuntos de datos al crear la primera IA psicópata del mundo. Este incidente con Amazon muestra lo fácil que es transmitir inadvertidamente sesgos a la tecnología que están entrenando con el propósito explícito de ser imparcial.
Amazon hasta ahora se ha negado a comentar sobre el informe de Reuters.