Incidentes Asociados

Derechos de autor de la imagen Getty Images Image caption El algoritmo repitió el sesgo hacia los hombres, reflejado en la industria de la tecnología.
Un algoritmo que el gigante en línea Amazon estaba probando como herramienta de reclutamiento era sexista y tuvo que ser desechado, según un informe de Reuters.
El sistema de inteligencia artificial se entrenó con los datos presentados por los solicitantes durante un período de 10 años, gran parte de los cuales procedían de hombres, afirmó.
Los miembros del equipo que trabajaban en él le dijeron a Reuters que el sistema efectivamente se enseñó a sí mismo que los candidatos masculinos eran preferibles.
Amazon no ha respondido a las reclamaciones.
Reuters habló con cinco miembros del equipo que desarrolló la herramienta de aprendizaje automático en 2014, ninguno de los cuales quiso ser nombrado públicamente.
Dijeron a Reuters que el sistema estaba destinado a revisar las solicitudes de empleo y dar a los candidatos una puntuación que oscilaba entre una y cinco estrellas.
"Literalmente querían que fuera un motor en el que les daré 100 currículums, escupirá los cinco primeros y los contrataremos", dijo uno de los ingenieros que habló con Reuters.
'Mujeres' sancionadas
Para 2015, estaba claro que el sistema no calificaba a los candidatos de manera neutral en cuanto al género porque se basaba en datos acumulados de los CV enviados a la empresa, en su mayoría de hombres, afirmó Reuters.
El sistema comenzó a penalizar los currículos que incluían la palabra "mujeres". El programa fue editado para que fuera neutral al término, pero quedó claro que no se podía confiar en el sistema, se le dijo a Reuters.
El proyecto fue abandonado, aunque Reuters dijo que fue utilizado durante un tiempo por reclutadores que miraban las recomendaciones generadas por la herramienta pero nunca se basaron únicamente en ella.
Según Amazon, su fuerza laboral global actual está dividida 60:40 a favor de los hombres.
Alrededor del 55% de los gerentes de recursos humanos de EE. UU. dijeron que la IA desempeñaría un papel en el reclutamiento dentro de los próximos cinco años, según una encuesta realizada por la firma de software CareerBuilder.
No es la primera vez que surgen dudas sobre cuán confiables serán los algoritmos entrenados en datos potencialmente sesgados.
Derechos de autor de la imagen MIT Image caption Un sistema de inteligencia artificial del MIT, llamado Norman, tenía una visión oscura del mundo como resultado de los datos con los que fue entrenado.
Un experimento en el Instituto de Tecnología de Massachusetts, que entrenó a una IA con imágenes y videos de asesinatos y muertes, descubrió que interpretaba las manchas de tinta neutras de manera negativa.
Y en mayo del año pasado, un informe afirmó que un programa informático generado por IA utilizado por un tribunal de EE. UU. estaba sesgado contra las personas negras, señalándolas como dos veces más propensas a delinquir que las personas blancas.
Se detectó que los algoritmos policiales predictivos tenían un sesgo similar, porque los datos sobre delitos en los que fueron entrenados mostraban más arrestos o paradas policiales para personas negras.