Incidentes Asociados

David Ryder/Getty Images El director ejecutivo de Amazon, Jeff Bezos.
Amazon intentó construir una herramienta de inteligencia artificial para ayudar con el reclutamiento, pero mostró un sesgo contra las mujeres, informa Reuters.
Según los informes, los ingenieros descubrieron que la IA era desfavorable para las candidatas porque había revisado los currículos dominados por hombres para acumular sus datos.
Según los informes, Amazon abandonó el proyecto a principios de 2017.
Amazon trabajó en la construcción de una herramienta de inteligencia artificial para ayudar con la contratación, pero los planes fracasaron cuando la empresa descubrió que el sistema discriminaba a las mujeres, informa Reuters.
Citando cinco fuentes, Reuters dijo que Amazon estableció un equipo de ingeniería en Edimburgo, Escocia, en 2014 para encontrar una manera de automatizar su contratación.
La empresa creó 500 modelos informáticos para rastrear los currículos de candidatos anteriores y recoger unos 50.000 términos clave. El sistema rastrearía la web para recomendar candidatos.
“Literalmente querían que fuera un motor en el que te daré 100 currículos, escupirá los cinco primeros y los contrataremos”, dijo una fuente a Reuters.
Sin embargo, un año después, los ingenieros notaron algo preocupante en su motor: no le gustaban las mujeres. Aparentemente, esto se debió a que la IA revisó los currículos predominantemente masculinos enviados a Amazon durante un período de 10 años para acumular datos sobre a quién contratar.
En consecuencia, la IA concluyó que los hombres eran preferibles. Según los informes, rebajó los currículos que contenían las palabras "mujeres" y filtró a los candidatos que habían asistido a dos universidades solo para mujeres.
Los ingenieros de Amazon aparentemente modificaron el sistema para remediar estas formas particulares de sesgo, pero no podían estar seguros de que la IA no encontraría nuevas formas de discriminar injustamente a los candidatos.
El sesgo de género no fue el único problema, dijeron fuentes de Reuters. Los programas de computadora también escupieron candidatos que no estaban calificados para el puesto.
Remediar el sesgo algorítmico es un tema espinoso, ya que los algoritmos pueden detectar el sesgo humano subconsciente. En 2016, ProPublica descubrió que el software de evaluación de riesgos utilizado para pronosticar qué delincuentes tenían más probabilidades de reincidir exhibía prejuicios raciales contra las personas negras. La dependencia excesiva de la IA para cosas como el reclutamiento, la calificación crediticia y los juicios de libertad condicional también ha creado problemas en el pasado.
Según los informes, Amazon abandonó el proyecto de contratación de IA a principios del año pasado después de que los ejecutivos perdieran la fe en él. Las fuentes de Reuters dijeron que los reclutadores de Amazon analizaron las recomendaciones generadas por la IA, pero nunca se basaron únicamente en su juicio.
Amazon le dijo a Business Insider, pero se negó a comentar más.
Un portavoz de Amazon le dijo a Business Insider: "Los reclutadores de Amazon nunca usaron esto para evaluar candidatos" y que la empresa estaba comprometida con la diversidad y la igualdad en el lugar de trabajo.
El sitio de correos electrónicos y alertas de Business Insider destaca cada día en su bandeja de entrada. Dirección de correo electrónico Unirse
Siga a Business Insider Australia en Facebook, Twitter, LinkedIn e Instagram.