Incidents associés

L'apprentissage automatique, l'une des techniques de base dans le domaine de l'intelligence artificielle, consiste à apprendre aux systèmes automatisés à concevoir de nouvelles façons de faire les choses, en leur fournissant des tonnes de données sur le sujet traité. L'une des grandes craintes ici est que les biais dans ces données seront simplement renforcés dans les systèmes d'IA - et Amazon semble avoir fourni un excellent exemple de ce phénomène.
Selon un nouveau rapport de Reuters, Amazon a passé des années à travailler sur un système d'automatisation du processus de recrutement. L'idée était que ce système alimenté par l'IA puisse consulter une collection de CV et nommer les meilleurs candidats. Pour y parvenir, Amazon a alimenté le système pendant une décennie de CV de personnes postulant à des emplois chez Amazon.
L'industrie de la technologie est notoirement dominée par les hommes et, par cons équent, la plupart de ces CV provenaient d'hommes. Ainsi, formé sur cette sélection d'informations, le système de recrutement a commencé à favoriser les hommes par rapport aux femmes.
Selon les sources de Reuters, le système d'Amazon a appris à rétrograder les CV contenant le mot "femmes" et à attribuer des scores inférieurs aux diplômés de deux collèges réservés aux femmes. Entre-temps, il a décidé que des mots tels que « exécuté » et « capturé », qui sont apparemment utilisés plus souvent dans les CV des ingénieurs masculins, suggéraient que le candidat devrait être classé plus haut.
L'équipe a essayé d'empêcher le système de prendre en compte ces facteurs, mais a finalement décidé qu'il était impossible de l'empêcher de trouver de nouvelles façons de discriminer les candidates. Il y avait apparemment aussi des problèmes avec les données sous-jacentes qui ont conduit le système à cracher des recommandations plutôt aléatoires.
Et donc, Amazon aurait tué le projet au début de 2017.
"Cela n'a jamais été utilisé par les recruteurs d'Amazon pour évaluer les candidats", a déclaré Amazon dans un communiqué.
Amazon n'est pas la seule entreprise à être attentive au problème du biais algorithmique. Plus tôt cette année, Facebook a déclaré qu'il testait un outil appelé Fairness Flow, pour repérer les préjugés raciaux, de sexe ou d'âge dans les algorithmes d'apprentissage automatique. Et quelle était la première cible des tests de Facebook du nouvel outil ? Son algorithme de mise en relation des demandeurs d'emploi avec les offres d'emploi des entreprises.
Cet article a été mis à jour pour inclure la déclaration d'Amazon.