Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2661

Loading...
Les responsables américains des droits civiques mettent en garde les employeurs contre une IA biaisée
apnews.com · 2022

Le gouvernement fédéral a déclaré jeudi que la technologie de l'intelligence artificielle pour sélectionner de nouveaux candidats à un emploi ou surveiller la productivité des travailleurs peut injustement discriminer les personnes handicapées, avertissant les employeurs que les outils d'embauche couramment utilisés pourraient violer les lois sur les droits civils.

Le ministère américain de la Justice et la Commission pour l'égalité des chances en matière d'emploi ont publié conjointement des conseils aux employeurs pour qu'ils fassent attention avant d'utiliser des outils algorithmiques populaires destinés à rationaliser le travail d'évaluation des employés et des perspectives d'emploi - mais qui pourraient également aller à l'encontre de la [Americans with Disabilities Act] (/article/virus-outbreak-ap-top-news-george-h-w-bush-unemployment-discrimination-9c1c304518e02b99f60e85fda37969be).

"Nous tirons la sonnette d'alarme concernant les dangers liés à la dépendance aveugle à l'IA et à d'autres technologies que nous voyons de plus en plus utilisées par les employeurs", a déclaré jeudi aux journalistes la procureure générale adjointe Kristen Clarke de la division des droits civils du département. "L'utilisation de l'IA aggrave la discrimination de longue date à laquelle sont confrontés les demandeurs d'emploi handicapés."

Parmi les exemples donnés d'outils d'IA populaires liés au travail figuraient des scanners de CV, un logiciel de surveillance des employés qui classe les travailleurs en fonction de la frappe au clavier, des tests en ligne de type jeu pour évaluer les compétences professionnelles [et un logiciel d'entretien vidéo](/article/job-seekers-artificial- intelligence-hiring-decisions-784ccec7ac6175aadc573465ab604fb9) qui mesure les schémas d'élocution ou les expressions faciales d'une personne.

Une telle technologie pourrait potentiellement éliminer les personnes souffrant de troubles de la parole, d'arthrite sévère qui ralentit la frappe ou d'une gamme d'autres déficiences physiques ou mentales, ont déclaré les responsables.

Les outils conçus pour analyser automatiquement le comportement au travail peuvent également négliger les aménagements au travail – comme un poste de travail silencieux pour une personne souffrant de trouble de stress post-traumatique ou des pauses plus fréquentes pour une incapacité liée à la grossesse – qui permettent aux employés de modifier leurs conditions de travail pour effectuer leur travail avec succès.

Les experts avertissent depuis longtemps que les outils de recrutement basés sur l'IA - bien qu'ils soient souvent présentés comme un moyen d'éliminer les préjugés humains - peuvent en fait enraciner les préjugés s'ils s'inspirent d'industries où les disparités raciales et de genre sont déjà répandues.

La décision de sévir contre les dommages qu'ils peuvent causer aux personnes handicapées reflète une poussée plus large par l'administration du président Joe Biden pour favoriser des avancées positives dans l'IA technologie tout en limitant les outils d'IA opaques et largement non réglementés qui sont utilisés pour prendre des décisions importantes sur la vie des gens.

"Nous reconnaissons totalement qu'il existe un énorme potentiel pour rationaliser les choses", a déclaré Charlotte Burrows, présidente de l'EEOC, qui est responsable de l'application des lois contre la discrimination au travail. "Mais nous ne pouvons pas laisser ces outils devenir une voie high-tech vers la discrimination."

Un chercheur qui a fait des recherches sur les biais dans les outils d'embauche d'IA a déclaré que tenir les employeurs responsables des outils qu'ils utilisent est un "premier pas important", mais a ajouté que davantage de travail était nécessaire pour freiner les fournisseurs qui fabriquent ces outils. Cela serait probablement un travail pour une autre agence, telle que la Federal Trade Commission, a déclaré Ifeoma Ajunwa, professeur de droit à l'Université de Caroline du Nord et directeur fondateur de son programme de recherche sur la prise de décision en IA.

"Il y a maintenant une reconnaissance de la façon dont ces outils, qui sont généralement déployés comme une intervention anti-biais, pourraient en fait entraîner plus de biais - tout en les obscurcissant", a déclaré Ajunwa.

Une entreprise de l'Utah qui gère l'un des outils de recrutement basés sur l'IA les plus connus - service d'interview vidéo HireVue - a déclaré jeudi qu'elle se félicitait de ce nouvel effort pour éduquer les travailleurs, les employeurs et les fournisseurs et a mis en évidence son propre travail en étudiant la performance des candidats autistes lors de ses évaluations de compétences.

"Nous sommes d'accord avec l'EEOC et le DOJ sur le fait que les employeurs devraient avoir des aménagements pour les candidats handicapés, y compris la possibilité de demander une autre voie pour être évalués", a déclaré le PDG de HireVue, Anthony Reynolds.

Cette histoire a été mise à jour pour corriger l'orthographe du nom de famille d'Anthony Reynolds, qui a été fourni de manière incorrecte par HireVue.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd