Incidentes Asociados

El aprendizaje automático, una de las técnicas centrales en el campo de la inteligencia artificial, implica enseñar a los sistemas automatizados a idear nuevas formas de hacer las cosas, alimentándolos con una gran cantidad de datos sobre el tema en cuestión. Uno de los grandes temores aquí es que los sesgos en esos datos simplemente se reforzarán en los sistemas de IA, y Amazon parece haber proporcionado un excelente ejemplo de ese fenómeno.
Según un nuevo informe de Reuters, Amazon pasó años trabajando en un sistema para automatizar el proceso de contratación. La idea era que este sistema impulsado por IA pudiera ver una colección de currículos y nombrar a los mejores candidatos. Para lograr esto, Amazon alimentó al sistema con los currículos de una década de personas que solicitaron empleo en Amazon.
La industria de la tecnología está dominada por hombres y, en consecuencia, la mayoría de esos currículums provienen de hombres. Entonces, entrenado en esa selección de información, el sistema de reclutamiento comenzó a favorecer a los hombres sobre las mujeres.
Según fuentes de Reuters, el sistema de Amazon aprendió por sí mismo a degradar los currículos con la palabra "femenino" y a asignar puntajes más bajos a los graduados de dos universidades solo para mujeres. Mientras tanto, decidió que palabras como "ejecutado" y "capturado", que aparentemente se usan con más frecuencia en los currículos de los ingenieros varones, sugerían que el candidato debería tener una clasificación más alta.
El equipo trató de evitar que el sistema tomara en cuenta tales factores, pero finalmente decidió que era imposible evitar que encontrara nuevas formas de discriminar a las candidatas. Aparentemente, también hubo problemas con los datos subyacentes que llevaron al sistema a emitir recomendaciones bastante aleatorias.
Y así, según los informes, Amazon eliminó el proyecto a principios de 2017.
“Esto nunca fue utilizado por los reclutadores de Amazon para evaluar candidatos”, dijo Amazon en un comunicado.
Amazon no es la única empresa que está alerta al problema del sesgo algorítmico. A principios de este año, Facebook dijo que estaba probando una herramienta llamada Fairness Flow, para detectar sesgos raciales, de género o de edad en algoritmos de aprendizaje automático. ¿Y cuál fue el primer objetivo de las pruebas de Facebook de la nueva herramienta? Su algoritmo para hacer coincidir a los solicitantes de empleo con las empresas que anuncian puestos.
Este artículo se actualizó para incluir la declaración de Amazon.