Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2461

Incidents associés

Incident 3734 Rapports
Amazon’s Experimental Hiring Tool Allegedly Displayed Gender Bias in Candidate Rankings

Loading...
Les outils d'IA ne parviennent pas à réduire les biais de recrutement - étude
bbc.com · 2022

Les outils de recrutement artificiellement intelligents ne réduisent pas les préjugés et n'améliorent pas la diversité, selon les chercheurs dans une étude.

"Il y a un intérêt croissant pour de nouvelles façons de résoudre des problèmes tels que les biais d'entretien", les chercheurs de l'Université de Cambridge disent, dans le revue Philosophie et technologie

L'utilisation de l'IA se généralise - mais son analyse des vidéos ou des candidatures des candidats relève de la "pseudoscience".

Un organisme professionnel des ressources humaines a déclaré à BBC News AI qu'il pourrait contrer les préjugés.

En 2020, note l'étude, une enquête internationale auprès de 500 professionnels des ressources humaines a suggéré que près d'un quart utilisaient l'IA pour "l'acquisition de talents, sous forme d'automatisation".

Mais l'utiliser pour réduire les préjugés est contre-productif et, a déclaré le Dr Kerry Mackereth, chercheur postdoctoral au Centre d'études sur le genre de l'Université de Cambridge, à BBC News, sur la base "d'un mythe".

"Ces outils ne peuvent pas être formés pour identifier uniquement les caractéristiques liées à l'emploi et éliminer le sexe et la race du processus d'embauche, car les types d'attributs que nous pensons essentiels pour être un bon employé sont intrinsèquement liés au sexe et à la race", dit-elle.

Certaines entreprises ont également trouvé ces outils problématiques, note l'étude.

En 2018, par exemple, Amazon a annoncé qu'il avait abandonné le développement d'un moteur de recrutement basé sur l'IA, car il pouvait détecter le sexe à partir des CV et [discriminait les candidates](https://www.bbc.co.uk/news/technology -45809919).

"Phrénologie moderne"

Les chercheurs se sont particulièrement préoccupés des outils permettant "d'analyser les détails du discours et des mouvements corporels d'un candidat" pour voir à quel point ils ressemblaient à l'employé idéal supposé d'une entreprise.

La technologie d'analyse vidéo et d'image n'avait "aucune base scientifique", a déclaré le co-auteur, le Dr Eleanor Drage, à BBC News, la rejetant comme une "phrénologie moderne", la fausse théorie de la forme du crâne pourrait révéler le caractère et les facultés mentales.

"Ils disent qu'ils peuvent connaître votre personnalité en regardant votre visage. L'idée est que, comme un test de détecteur de mensonges, l'IA peut voir" à travers "votre visage jusqu'au vrai vous", a-t-elle déclaré à BBC News.

Avec six étudiants en informatique, les chercheurs ont construit leur propre outil de recrutement IA simplifié, pour noter les photographies des candidats selon les traits de personnalité des « cinq grands » :

  • amabilité
  • extraversion
  • ouverture
  • conscience
  • névrosisme

Mais les notes étaient faussées par de nombreuses variables non pertinentes.

"Lorsque vous utilisez notre outil, vous pouvez voir que votre score de personnalité change lorsque vous modifiez le contraste/la luminosité/la saturation", a écrit le Dr Drage.

Le site d'actualités technologiques The Register note d'autres enquêtes sont parvenues à une conclusion similaire.

Un radiodiffuseur public allemand portant des lunettes ou un foulard dans une vidéo a modifié les scores d'un candidat.

Hayfa Mohdzaini, du Chartered Institute of Personnel and Development, a déclaré à BBC News ses recherches suggèrent seulement 8 % des employeurs ont utilisé l'IA pour sélectionner candidats.

"L'IA peut aider efficacement à accroître la diversité d'une organisation en filtrant à partir d'un plus grand bassin de candidats - mais elle peut également passer à côté de nombreux bons candidats si les règles et les données de formation sont incomplètes ou inexactes", a-t-elle déclaré.

"Les logiciels d'IA pour analyser la voix et le langage corporel des candidats dans le recrutement en sont à leurs balbutiements et comportent donc à la fois des opportunités et des risques."

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd