Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 622

Incidents associés

Incident 3734 Rapports
Amazon’s Experimental Hiring Tool Allegedly Displayed Gender Bias in Candidate Rankings

Loading...
Amazon a tué son système de recrutement par IA pour parti pris contre les femmes-Rapport
fortune.com · 2018

L'apprentissage automatique, l'une des techniques de base dans le domaine de l'intelligence artificielle, consiste à apprendre aux systèmes automatisés à concevoir de nouvelles façons de faire les choses, en leur fournissant des tonnes de données sur le sujet traité. L'une des grandes craintes ici est que les biais dans ces données seront simplement renforcés dans les systèmes d'IA - et Amazon semble avoir fourni un excellent exemple de ce phénomène.

Selon un nouveau rapport de Reuters, Amazon a passé des années à travailler sur un système d'automatisation du processus de recrutement. L'idée était que ce système alimenté par l'IA puisse consulter une collection de CV et nommer les meilleurs candidats. Pour y parvenir, Amazon a alimenté le système pendant une décennie de CV de personnes postulant à des emplois chez Amazon.

L'industrie de la technologie est notoirement dominée par les hommes et, par conséquent, la plupart de ces CV provenaient d'hommes. Ainsi, formé sur cette sélection d'informations, le système de recrutement a commencé à favoriser les hommes par rapport aux femmes.

Selon les sources de Reuters, le système d'Amazon a appris à rétrograder les CV contenant le mot "femmes" et à attribuer des scores inférieurs aux diplômés de deux collèges réservés aux femmes. Entre-temps, il a décidé que des mots tels que « exécuté » et « capturé », qui sont apparemment utilisés plus souvent dans les CV des ingénieurs masculins, suggéraient que le candidat devrait être classé plus haut.

L'équipe a essayé d'empêcher le système de prendre en compte ces facteurs, mais a finalement décidé qu'il était impossible de l'empêcher de trouver de nouvelles façons de discriminer les candidates. Il y avait apparemment aussi des problèmes avec les données sous-jacentes qui ont conduit le système à cracher des recommandations plutôt aléatoires.

Et donc, Amazon aurait tué le projet au début de 2017.

"Cela n'a jamais été utilisé par les recruteurs d'Amazon pour évaluer les candidats", a déclaré Amazon dans un communiqué.

Amazon n'est pas la seule entreprise à être attentive au problème du biais algorithmique. Plus tôt cette année, Facebook a déclaré qu'il testait un outil appelé Fairness Flow, pour repérer les préjugés raciaux, de sexe ou d'âge dans les algorithmes d'apprentissage automatique. Et quelle était la première cible des tests de Facebook du nouvel outil ? Son algorithme de mise en relation des demandeurs d'emploi avec les offres d'emploi des entreprises.

Cet article a été mis à jour pour inclure la déclaration d'Amazon.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 26ad817