Incidentes Asociados

Se suponía que facilitaría la búsqueda de la persona adecuada para el trabajo. Sin embargo, la empresa abandonó una herramienta de inteligencia artificial desarrollada por Amazon para filtrar posibles contrataciones después de que los desarrolladores descubrieran que estaba sesgada en contra de elegir mujeres.
Desde la fijación de precios de los artículos hasta la coordinación del almacén, la automatización ha sido una parte clave del ascenso de Amazon al dominio del comercio electrónico. Y desde 2014, sus desarrolladores han estado creando programas de contratación destinados a hacer que la selección de los mejores talentos sea lo más fácil y automatizada posible.
Lee mas
“Todos querían este santo grial”, dijo una de las fuentes anónimas a Reuters sobre las ambiciones del software.
"Literalmente querían que fuera un motor en el que les daré 100 currículums, escupirá los cinco primeros y los contrataremos".
Sin embargo, una filtración de varios de los que están familiarizados con el programa da una idea de algunos de los percances en el desarrollo del software de contratación basado en IA y cómo aprendió a penalizar a las mujeres... por ser mujeres.
Fue en 2015 que los reclutadores humanos notaron por primera vez las discrepancias con la herramienta, cuando aparentemente marcó a las candidatas para puestos en las esferas dominadas por hombres del desarrollo de software y otros puestos técnicos en la empresa.
Cuando el motor encontró palabras como "mujeres" en un currículum, o si una candidata se graduó de una universidad para mujeres, penalizó injustamente a las candidatas de la selección, dijeron las fuentes.
Las investigaciones sobre la causa del desequilibrio de género encontraron que los datos que alimentaban el algoritmo se basaban en diez años de currículos enviados a la empresa. La gran mayoría de las cuales fueron presentadas por hombres.
El algoritmo, a su vez, aprendió a descartar a las candidatas como algo negativo, lo que llevó a su sistema de puntuación sexista.
Los programadores realizaron ediciones para que el motor fuera neutral a estos términos particulares, sin embargo, no había certeza de que no desarrollaría otras formas de discriminar en el futuro.
LEER MÁS: Los bots de IA racistas y sexistas podrían negarle trabajo, seguro y préstamos: expertos en tecnología
Los ejecutivos abatidos finalmente desecharon el equipo en 2017 después de perder la esperanza en el proyecto. Un portavoz de Amazon le dijo a RT que el proyecto nunca salió de la fase de prueba. Además de su aparente sesgo, el software "nunca arrojó candidatos para los roles". Ahora, en cambio, se utiliza una "versión muy diluida" para tareas menores de recursos humanos, como clasificar a los solicitantes duplicados de sus bases de datos.
Los algoritmos sexistas de Amazon no son la primera vez que la IA ha puesto a las empresas tecnológicas en problemas. El mes pasado, Facebook se enfureció después de que se descubrió que a las usuarias se les impedía ver anuncios de trabajo en industrias tradicionalmente dominadas por hombres.
En mayo de 2016, un informe encontró que un tribunal de EE. UU. que usaba software automatizado para proporcionar evaluaciones de riesgo estaba sesgado en contra de los presos negros, registrándolos con el doble de probabilidades de reincidir que sus homólogos blancos.
¿Crees que tus amigos estarían interesados? ¡Comparte esta historia!