Incidentes Asociados
El gigante tecnológico enlató su sistema de reclutamiento experimental plagado de problemas, según Reuters.
Amazon, en 2014, puso en marcha el sistema de contratación con la esperanza de mecanizar todo el proceso de contratación. Usó inteligencia artificial para dar a los candidatos puntajes que iban de una a cinco estrellas. El sistema luego escupirá a los 5 mejores candidatos, con la calificación y las calificaciones más altas.
Pero los especialistas en aprendizaje automático descubrieron un gran problema con este sistema casi perfecto: era sexista. Los modelos fueron capacitados para examinar a los solicitantes mediante la observación de patrones en los currículos enviados a la empresa durante un período de 10 años. La mayoría de ellos siendo hombres.
Por lo tanto, la IA de Amazon aprendió que solo los candidatos masculinos serían adecuados y comenzó a penalizar los currículums que incluían la palabra "mujeres". Por ejemplo, un currículum que podría haber contenido, "la capitana del equipo de baloncesto femenino", se retrasó más en la lista de candidatos más adecuados.
Hicieron cambios en el programa y afirmaron que solucionaron el problema, pero las personas no estaban convencidas porque creían que la IA podría encontrar otras formas discriminatorias para atacar a las mujeres.
Amazon defendió a la empresa alegando que los reclutadores vieron los currículos presentados por el sistema, pero nunca confiaron completamente en él. Además, destacó su compromiso con la diversidad e igualdad en el trabajo.
Los informes del sistema defectuoso solo respaldaron las afirmaciones de las mujeres sobre la creciente disparidad de género en la industria tecnológica.