Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 609

Incidents associés

Incident 3734 Rapports
Amazon’s Experimental Hiring Tool Allegedly Displayed Gender Bias in Candidate Rankings

Loading...
IA sexiste : Amazon abandonne un outil de recrutement qui s'est avéré anti-femmes
rt.com · 2019

C'était censé faciliter la recherche de la bonne personne pour le poste. Cependant, un outil d'IA développé par Amazon pour passer au crible les embauches potentielles a été abandonné par l'entreprise après que les développeurs ont découvert qu'il était biaisé contre la sélection des femmes.

De la tarification des articles à la coordination des entrepôts, l'automatisation a été un élément clé de la montée en puissance d'Amazon vers la domination du commerce électronique. Et depuis 2014, ses développeurs créent des programmes de recrutement visant à rendre la sélection des meilleurs talents aussi facile et automatisée que possible.

Lire la suite

"Tout le monde voulait ce Saint Graal", a déclaré l'une des sources anonymes à Reuters au sujet des ambitions du logiciel.

"Ils voulaient littéralement que ce soit un moteur où je vais vous donner 100 CV, il crachera les cinq premiers, et nous les embaucherons."

Cependant, une fuite de plusieurs personnes familières avec le programme donne un aperçu de certains des incidents dans le développement du logiciel de recrutement basé sur l'IA, et comment il a appris à pénaliser les femmes… pour être des femmes.

C'est en 2015 que les recruteurs humains ont remarqué pour la première fois des divergences avec l'outil, lorsqu'il a apparemment marqué des candidates pour des rôles dans les sphères à prédominance masculine du développement de logiciels et d'autres rôles techniques au sein de l'entreprise.

Lorsque le moteur rencontrait des mots comme "femmes" sur un CV, ou si un candidat était diplômé d'un collège entièrement féminin, il pénalisait injustement les candidates de la sélection, ont indiqué les sources.

Les enquêtes sur la cause du déséquilibre entre les sexes ont révélé que les données qui alimentaient l'algorithme étaient basées sur dix ans de CV envoyés à l'entreprise. La grande majorité d'entre eux ont été soumis par des hommes.

L'algorithme a à son tour appris à rejeter les candidates comme un négatif, ce qui a conduit à son système de notation sexiste.

Des modifications ont été apportées par les programmeurs pour rendre le moteur neutre vis-à-vis de ces termes particuliers, cependant, il n'y avait aucune certitude qu'il ne développerait pas d'autres moyens de discrimination à l'avenir.

LIRE LA SUITE : Des robots d'IA racistes et sexistes pourraient vous refuser un emploi, une assurance et des prêts - experts en technologie

Des dirigeants découragés ont finalement abandonné l'équipe en 2017 après avoir perdu espoir dans le projet. Un porte-parole d'Amazon a déclaré à RT que le projet n'était jamais sorti de la phase d'essai. En plus de son parti pris apparent, le logiciel "n'a jamais renvoyé de candidats solides pour les rôles". Désormais, une «version très édulcorée» est plutôt utilisée pour des tâches RH mineures telles que le tri des candidats en double à partir de ses bases de données.

Les algorithmes sexistes d'Amazon ne sont pas la première fois que l'IA fait atterrir des entreprises technologiques dans l'eau chaude. Le mois dernier, Facebook a été critiqué après avoir découvert que les utilisatrices étaient empêchées de voir des offres d'emploi dans des secteurs traditionnellement dominés par les hommes.

En mai 2016, un rapport a révélé qu'un tribunal américain qui utilisait un logiciel automatisé pour fournir des évaluations des risques avait un parti pris contre les prisonniers noirs, les enregistrant comme deux fois plus susceptibles de récidiver que leurs homologues blancs.

Vous pensez que vos amis seraient intéressés ? Partagez cette histoire !

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd