Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2660

Loading...
Les robots peuvent-ils discriminer ? C'est une grande question car les entreprises utilisent l'IA pour embaucher
npr.org · 2023

L'IA est peut-être l'outil d'embauche du futur, mais elle pourrait venir avec les anciennes reliques de la discrimination.

Alors que presque tous les grands employeurs des États-Unis utilisent désormais l'intelligence artificielle et l'automatisation dans leurs processus d'embauche, l'agence qui applique les lois fédérales anti-discrimination se penche sur certaines questions urgentes :

Comment prévenir la discrimination à l'embauche alors que la discrimination est perpétuée par une machine ? Quel type de garde-corps pourrait aider?

Quelque 83 % des employeurs, dont 99 % des entreprises du Fortune 500, utilisent désormais une forme d'outil automatisé dans le cadre de leur processus d'embauche, a déclaré la présidente de la Commission pour l'égalité des chances en matière d'emploi, Charlotte Burrows, lors d'une audience mardi (https://www. .eeoc.gov/meetings/meeting-january-31-2023-navigating-employment-discrimination-ai-and-automated-systems-new) intitulé "Navigating Employment Discrimination in AI and Automated Systems : A New Civil Rights Frontier", partie d'une initiative d'agence plus large examinant comment la technologie est utilisée pour recruter et embaucher des personnes.

Tout le monde doit prendre la parole dans le débat sur ces technologies, a-t-elle déclaré.

"Les enjeux sont tout simplement trop importants pour laisser ce sujet aux seuls experts", a déclaré Burrows.

Les scanners de CV, les chatbots et les entretiens vidéo peuvent introduire des biais


L'année dernière, l'EEOC a publié des directives sur l'utilisation de l'excision outils d'embauche de pointe, notant bon nombre de leurs lacunes.

Les scanners de CV qui donnent la priorité aux mots-clés, les "assistants virtuels" ou les "chatbots" qui trient les candidats en fonction d'un ensemble d'exigences prédéfinies, et les programmes qui évaluent les expressions faciales et les modèles de discours d'un candidat lors d'entretiens vidéo peuvent perpétuer les préjugés ou créer une discrimination, a constaté l'agence. .

Prenons, par exemple, un entretien vidéo qui analyse les schémas d'élocution d'un candidat afin de déterminer sa capacité à résoudre des problèmes. Une personne ayant un trouble de la parole peut obtenir un score faible et être automatiquement éliminée.

Ou, un chatbot programmé pour rejeter les candidats avec des lacunes dans leur CV. Le bot peut automatiquement refuser un candidat qualifié qui a dû arrêter de travailler en raison d'un traitement pour un handicap ou parce qu'il s'est absenté pour la naissance d'un enfant.

Les travailleurs âgés peuvent être désavantagés par les outils basés sur l'IA de plusieurs manières, a déclaré Heather Tinsley-Fix, conseillère principale de l'AARP, dans son témoignage lors de l'audience.

Les entreprises qui utilisent des algorithmes pour extraire les données des médias sociaux et des profils numériques professionnels dans la recherche de "candidats idéaux" peuvent ignorer celles qui ont une empreinte numérique plus petite.

De plus, il y a l'apprentissage automatique, qui pourrait créer une boucle de rétroaction qui nuit ensuite aux futurs candidats, a-t-elle déclaré.

"Si un candidat plus âgé réussit le processus de sélection des CV mais est confus ou interagit mal avec le chatbot, ces données pourraient enseigner à l'algorithme que les candidats ayant des profils similaires devraient être classés plus bas", a-t-elle déclaré.

Savoir que vous avez été victime de discrimination peut être difficile


Le problème sera pour l'EEOC d'éradiquer la discrimination - ou de l'empêcher de se produire - lorsqu'elle peut être enfouie au plus profond d'un algorithme. Ceux qui se sont vu refuser un emploi peuvent ne pas faire le lien avec la discrimination fondée sur leur âge, leur race ou leur handicap.

Dans une action en justice intentée par l'EEOC, une femme qui a postulé pour un emploi dans une entreprise de tutorat n'a réalisé que l'entreprise avait fixé un âge limite après avoir postulé pour le même emploi et fourni une date de naissance différente.

L'EEOC étudie les moyens les plus appropriés de gérer le problème.

Les panélistes de mardi, un groupe qui comprenait des informaticiens, des défenseurs des droits civiques et des avocats du travail, ont convenu que des audits sont nécessaires pour s'assurer que les logiciels utilisés par les entreprises évitent les biais intentionnels ou non. Mais qui mènerait ces audits - le gouvernement, les entreprises elles-mêmes ou un tiers - est une question plus épineuse.

Chaque option présente des risques, a souligné Burrows. Un tiers peut être coopté pour traiter ses clients avec indulgence, tandis qu'un audit dirigé par le gouvernement pourrait potentiellement étouffer l'innovation.

L'établissement de normes pour les fournisseurs et l'obligation pour les entreprises de divulguer les outils d'embauche qu'elles utilisent ont également été discutés. Il reste à voir à quoi cela ressemblerait dans la pratique.

Dans des remarques précédentes, Burrows a noté le grand potentiel que l'IA et les outils de prise de décision algorithmique ont pour améliorer la vie des Américains, lorsqu'ils sont utilisés correctement.

"Nous devons veiller à ce que ces nouvelles technologies ne deviennent pas une voie high-tech vers la discrimination", a-t-elle déclaré.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd