Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 628

Incidents associés

Incident 3734 Rapports
Amazon’s Experimental Hiring Tool Allegedly Displayed Gender Bias in Candidate Rankings

Loading...
L'algorithme de recrutement sexiste d'Amazon reflète un préjugé sexiste plus important
mashable.com · 2018

L'IA peut avoir des tendances sexistes. Mais, désolé, le problème est toujours nous, les humains.

Amazon a récemment abandonné un algorithme de recrutement d'employés en proie à des problèmes, selon un rapport de Reuters. En fin de compte, l'algorithme de sélection des candidats n'a pas renvoyé de candidats pertinents, alors Amazon a abandonné le programme. Mais en 2015, Amazon avait un problème plus inquiétant avec cette IA : elle déclassait les femmes.

L'algorithme n'a jamais été utilisé que dans des essais et les ingénieurs ont corrigé manuellement les problèmes de biais. Cependant, le fonctionnement de l'algorithme et l'existence du produit lui-même témoignent de réels problèmes de disparité entre les sexes dans les rôles technologiques et non technologiques, et de la dévaluation du travail féminin perçu.

Amazon a créé son IA de recrutement pour renvoyer automatiquement les meilleurs candidats parmi un pool de CV de candidats. Il a découvert que l'algorithme déclassait les CV lorsqu'il incluait le mot "femmes" et même deux collèges pour femmes. Cela donnerait également la préférence aux curriculum vitae contenant ce que Reuters appelle le "langage masculin" ou des verbes forts comme "exécuté" ou "capturé".

Ces modèles ont commencé à apparaître parce que les ingénieurs ont formé leur algorithme avec les CV des anciens candidats soumis au cours des dix années précédentes. Et voilà, la plupart des candidats les plus attrayants étaient des hommes. Essentiellement, l'algorithme a trouvé des preuves de disparité entre les sexes dans les rôles techniques et l'a optimisé ; il reproduisait de manière neutre une préférence sociétale et endémique pour les hommes résultant d'un système éducatif et d'un préjugé culturel qui encourage les hommes et décourage les femmes dans la poursuite des rôles STEM.

Pour savoir pourquoi il y a si peu de femmes dans la technologie, regardez une session de recrutement pour les seniors des collèges. Peu de femmes ingénieures, encore moins parlent, les hommes parlent d'elles https://t.co/8CmfAB9J3Q via @jessiwrites - Scott Thurm (@ScottThurm) 1er mars 2018

En tant que #womeninSTEM & #womeninPhysics, nous sommes une minorité et d'après mon expérience, cela a eu un impact considérable sur ma santé mentale au fil du temps.https://t.co/KPMcCMbt7X

J'ai l'impression d'être un imposteur. Je me sens souvent isolé. J'ai régulièrement peur de la discrimination et même du harcèlement.#WorldMentalHealthDay — Niamh Kavanagh (@NiamhTalking90) 10 octobre 2018

Amazon a souligné dans un e-mail à Mashable qu'il avait abandonné le programme car il ne renvoyait finalement pas les candidats pertinents ; il a traité le problème du sexisme dès le début, mais l'IA dans son ensemble n'a tout simplement pas bien fonctionné.

Cependant, la création d'algorithmes d'embauche eux-mêmes - pas seulement chez Amazon, mais dans de nombreuses entreprises - témoigne toujours d'un autre type de préjugé sexiste : la dévalorisation des rôles et des compétences des ressources humaines à prédominance féminine.

Selon le département américain du Travail (via le fournisseur d'analyse de la main-d'œuvre Visier), les femmes occupent près des trois quarts des postes de direction des ressources humaines. C'est une excellente nouvelle pour la représentation globale des femmes sur le lieu de travail. Mais la disparité existe grâce à une autre sorte de préjugé sexiste.

Il y a une perception que les emplois RH sont des rôles féminins. Le Globe and Mail écrit dans son enquête sur le sexisme et la disparité entre les sexes dans les RH :

La perception des RH comme un métier féminin persiste. Cette image basée sur les personnes, douce et empathique, et qui consiste à aider les employés à résoudre les problèmes, la laisse largement peuplée de femmes en tant que nourricières stéréotypées. Même aujourd'hui, ces compétences "plus souples" sont considérées comme moins attrayantes - ou intuitives - pour les hommes qui peuvent graviter vers des rôles stratégiques et analytiques perçus et s'éloigner des relations avec les employés.

Amazon et d'autres entreprises qui ont poursuivi les intégrations de l'IA dans le recrutement voulaient rationaliser le processus, oui. Mais l'automatisation d'un processus basé sur les personnes montre un mépris pour les compétences basées sur les personnes qui sont moins faciles à reproduire mécaniquement, comme l'intuition ou le rapport. Reuters a rapporté que l'IA d'Amazon a identifié des candidats attrayants grâce à un système de notation cinq étoiles, "un peu comme les acheteurs évaluent les produits sur Amazon" ; qui a besoin d'empathie quand on a cinq étoiles ?

Dans le rapport de Reuters, ces entreprises suggèrent d'embaucher l'IA en complément ou en complément des méthodes plus traditionnelles, et non en remplacement pur et simple. Mais la volonté en premier lieu d'automatiser un processus par une division à prédominance féminine montre le revers de la médaille de la préférence de l'algorithme pour le "langage masculin" ; là où les verbes « exécutés » et « capturés » sont inconsciemment favorisés, « écouté » ou « fourni » sont ignorés comme inefficaces.

L'explosion de l'IA est en cours. C'est facile à voir dans chaque présentation de téléphone intelligent évangélique ou de maison intelligente de tout ce que votre robot peut faire pour vous, y compris celui d'Amazon. Mais cela signifie que la société s'ouvre pour créer un monde encore moins inclusif. I.A. peut doubler les tendances discriminatoires au nom de l'optimisation, comme nous le voyons avec l'IA de recrutement d'Amazon. (et d'autres). Et parce que A.I. est à la fois construit et dirigé par des humains (et souvent, principalement des hommes) qui peuvent involontairement transférer leurs préjugés sexistes inconscients dans les décisions commerciales, et les robots eux-mêmes.

Alors que nos ordinateurs deviennent plus intelligents et imprègnent plus de domaines de la vie et w

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd