Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2194

Incidents associés

Incident 954 Rapports
Job Screening Service Halts Facial Analysis of Applicants

Loading...
Un groupe de défense des droits dépose une plainte fédérale contre la société de recrutement d'IA HireVue, citant des pratiques "déloyales et trompeuses"
washingtonpost.com · 2019

Un important groupe de défense des droits exhorte la Federal Trade Commission à s'attaquer à la société de technologie de recrutement [HireVue](https://www.washingtonpost.com/technology/2019/10/22/ai-hiring-face-scanning-algorithm- de plus en plus-decide-si-vous-méritez-un-emploi/?itid=lk_inline_manual_2), arguant que l'entreprise s'est tournée vers des pratiques commerciales déloyales et trompeuses dans son utilisation de la technologie de reconnaissance faciale pour évaluer "l'employabilité" des candidats.

L'Electronic Privacy Information Center, connu sous le nom d'EPIC, a déposé mercredi une [plainte officielle](https://www.washingtonpost.com/context/epic-s-ftc-complaint-about-hirevue/9797b738-e36a-4b7a-8936 -667cf8748907/?itid=lk_inline_manual_4) appelant la FTC à enquêter sur les pratiques commerciales de HireVue, affirmant que l'utilisation par l'entreprise de systèmes d'intelligence artificielle non éprouvés qui analysent les visages et les voix des personnes constituaient une menace à grande échelle pour les travailleurs américains.

Les «évaluations basées sur l'IA» de HireVue, que plus de 100 employeurs ont utilisées sur plus d'un million de candidats à un emploi, utilisent des entretiens vidéo pour analyser des centaines de milliers de points de données liés à la voix, à la sélection de mots et aux mouvements du visage d'une personne. Le système crée ensuite une estimation générée par ordinateur des compétences et des comportements des candidats, y compris leur «volonté d'apprendre» et leur «stabilité personnelle».

Les candidats ne sont pas informés de leurs scores, mais les employeurs peuvent utiliser ces rapports pour décider qui embaucher ou ignorer. La société basée dans l'Utah a fait l'objet d'[un rapport du Washington Post](https://www.washingtonpost.com/technology/2019/10/22/ai-hiring-face-scanning-algorithm-increasingly-decides-whether- you-deserve-job/?itid=lk_inline_manual_8) le mois dernier, dans lequel des chercheurs en intelligence artificielle ont critiqué sa technologie comme « profondément dérangeante » et « opaque ».

La "collecte intrusive et l'analyse secrète des données biométriques" de HireVue causent des dommages substantiels à la vie privée et aux finances, ont écrit les responsables de l'EPIC. Et "parce que ces algorithmes sont secrets", ont-ils ajouté, "... il est impossible pour les candidats à un emploi de savoir comment leurs données personnelles sont utilisées ou de consentir à de telles utilisations".

La FTC a refusé de commenter. HireVue n'a pas répondu aux demandes de commentaires.

La plainte pourrait pour la première fois jeter un coup de projecteur fédéral sur une industrie en pleine croissance d'entreprises technologiques qui annoncent des systèmes automatisés qui, selon elles, peuvent évaluer les CV des candidats, deviner la personnalité des personnes et identifier les recrues problématiques. Les critiques disent que les systèmes sont déshumanisants, envahissants et fondés sur une science erronée qui pourrait perpétuer des pratiques d'embauche discriminatoires.

La technologie fait également face à une pression croissante de la part des législateurs. En janvier, l'Illinois promulguera une loi obligeant les employeurs à informer les candidats et les régulateurs du fonctionnement de leurs systèmes d'entretien vidéo par IA. Les co-sponsors du projet de loi, approuvé en août par le gouverneur J.B. Pritzker (D), ont déclaré qu'ils s'inquiétaient du les systèmes pourraient injustement pénaliser les candidats et masquer les préjugés dans la façon dont ils évaluent un « employé modèle ».

Les systèmes de HireVue sont devenus omniprésents pour les employeurs car ils peuvent réduire les coûts de recrutement et accélérer le délai d'exécution des nouvelles embauches. Certains collèges expliquent désormais aux étudiants comment impressionner les algorithmes cachés : Dans le dossier de la FTC, les avocats de l'EPIC citent un guide de l'école de commerce de l'Université du Maryland, qui dit aux personnes interrogées : « Les robots vous comparent aux réussites existantes ; ils ne recherchent pas de candidats prêts à l'emploi.

EPIC, basé à Washington, est devenu l'un des chiens de garde les plus renommés et les plus efficaces de l'industrie technologique, contribuant à façonner la politique américaine en matière de confidentialité en ligne, de libertés civiles et de surveillance intérieure depuis près de 25 ans. Le groupe a défié des géants de la technologie et des agences gouvernementales, notamment Facebook, Google et la National Security Agency, par le biais de plaintes de consommateurs, de dépôts d'agences et de poursuites fédérales.

L'EPIC a exhorté la FTC à mettre fin à la notation automatique des candidats par HireVue et à rendre publics les algorithmes et les critères utilisés pour analyser le comportement des personnes. La technologie n'est en grande partie pas réglementée, mais la FTC applique régulièrement des lois sur les "actes ou pratiques déloyaux et trompeurs" contre les entreprises qui font des réclamations aux consommateurs sans "base raisonnable" d'une manière susceptible de "causer un préjudice substantiel".

Dans sa plainte, les responsables de l'EPIC ont déclaré que les évaluations basées sur l'IA de HireVue produisent des résultats "biaisés, non prouvables et non reproductibles". Selon eux, le système pourrait injustement marquer quelqu'un sur la base de préjugés liés à son sexe, sa race, son orientation sexuelle ou ses différences neurologiques. HireVue dit qu'il utilise des techniques de "test de biais de classe mondiale" pour détecter et prévenir la discrimination à l'embauche.

HireVue annonce que sa technologie n'utilise pas la "technologie de reconnaissance faciale" car ses systèmes ne tentent pas d'identifier les personnes. Mais EPIC a fait valoir que l'affirmation de HireVue est trompeuse et que la FTC a statué que le terme s'applique à toutes les "technologies qui analysent la géométrie faciale pour prédire les caractéristiques démographiques, l'expression ou les émotions".

L'EPIC a également fait valoir que HireVue n'avait pas respecté les normes internationales pour les systèmes d'IA établies par l'Organisation de coopération et de développement économiques et approuvées par les États-Unis plus tôt cette année. HireVue a violé ces principes, a déclaré l'EPIC, car ses évaluations algorithmiques ne peuvent pas être évaluées ou « contestées de manière significative » par les candidats qu'ils ont évalués.

La société n'a pas assuré l'exactitude, la fiabilité ou la validité de ses scores générés par ordinateur, a ajouté la plainte. Il n'a pas non plus "évalué de manière adéquate si le but, les objectifs et les avantages de ses évaluations algorithmiques l'emportent sur les risques".

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd