Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1397

Incidents associés

Incident 954 Rapports
Job Screening Service Halts Facial Analysis of Applicants

Loading...
Le service de sélection d'emploi interrompt l'analyse faciale des candidats
wired.com · 2021

Mais il utilise toujours l'intonation et le comportement pour aider aux décisions d'embauche.

Les chercheurs d'emploi peuvent désormais avoir besoin d'impressionner non seulement les patrons potentiels, mais aussi les algorithmes d'intelligence artificielle, car les employeurs sélectionnent les candidats en leur faisant répondre aux questions d'un entretien sur une vidéo qui est ensuite évaluée par une machine.

HireVue, l'un des principaux fournisseurs de logiciels de sélection des candidats à un emploi sur la base d'une évaluation algorithmique, a déclaré mardi qu'il tuait une fonctionnalité controversée de son logiciel : l'analyse des expressions faciales d'une personne dans une vidéo pour discerner certaines caractéristiques.

Les demandeurs d'emploi sélectionnés par HireVue s'assoient devant une webcam et répondent aux questions. Leur comportement, leur intonation et leur discours sont alimentés par un algorithme qui attribue certains traits et qualités.

HireVue affirme qu'un "audit algorithmique" de son logiciel réalisé l'année dernière montre qu'il n'abrite pas de biais. Mais l'Electronic Privacy Information Center à but non lucratif avait déposé une plainte contre l'entreprise auprès de la Federal Trade Commission en 2019.

Le PDG de HireVue, Kevin Parker, reconnaît que le tollé général suscité par l'utilisation de logiciels pour analyser les expressions faciales en vidéo faisait partie du calcul. "Cela ajoutait de la valeur pour les clients, mais cela n'en valait pas la peine", dit-il.

L’audit algorithmique a été réalisé par un cabinet externe, O’Neil Risk Consulting and Algorithmic Auditing. La société n'a pas répondu aux demandes de commentaires.

Alex Engler, membre de la Brookings Institution qui a étudié l'embauche d'IA, dit que l'idée d'utiliser l'IA pour déterminer la capacité de quelqu'un, qu'elle soit basée sur la vidéo, l'audio ou le texte, est farfelue. Il dit qu'il est également problématique que le public ne puisse pas vérifier ces allégations.

"Il y a des parties pour lesquelles l'apprentissage automatique peut probablement aider, mais des entretiens entièrement automatisés, où vous faites des déductions sur les performances au travail, c'est terrible", dit-il. "L'intelligence artificielle moderne ne peut pas faire ces inférences."

HireVue indique qu'environ 700 entreprises, dont GE, Unilever, Delta et Hilton, utilisent sa technologie. Le logiciel demande aux demandeurs d'emploi de répondre à une série de questions dans une vidéo enregistrée. Le logiciel de l'entreprise analyse ensuite diverses caractéristiques, notamment la langue qu'ils utilisent, leur discours et, jusqu'à présent, leurs expressions faciales. Il fournit ensuite une évaluation de l'aptitude du candidat à un emploi, ainsi qu'une mesure de traits tels que « fiabilité », « intelligence émotionnelle » et « capacité cognitive ».

Parker dit que la société a aidé à filtrer plus de 6 millions de vidéos l'année dernière, bien que parfois cela impliquait simplement de transcrire les réponses pour un intervieweur plutôt que d'effectuer une évaluation automatisée des candidats. Il ajoute que certains clients laissent les candidats se retirer de la présélection automatisée. Et il dit que HireVue a développé des moyens d'éviter de pénaliser les candidats avec des connexions Internet inégales, en référant automatiquement ces candidats à un humain.

Les experts en IA préviennent que les algorithmes formés sur les données des précédents candidats à un emploi peuvent perpétuer les préjugés existants lors de l'embauche. Lindsey Zuloaga, scientifique en chef des données chez HireVue, explique que l'entreprise recherche les préjugés sur le sexe, la race et l'âge en collectant ces informations dans les données de formation et en recherchant des signes de préjugés.

Mais elle reconnaît qu'il peut être plus difficile de savoir si le système est biaisé par des facteurs tels que le revenu ou le niveau d'éducation, ou s'il pourrait être affecté par quelque chose comme un bégaiement.

"Je suis surpris qu'ils abandonnent cela, car c'était une caractéristique clé du produit qu'ils commercialisaient", déclare John Davisson, avocat principal chez EPIC. "C'est la source de beaucoup d'inquiétudes concernant la collecte de données biométriques, ainsi que ces affirmations audacieuses sur la capacité de mesurer les traits psychologiques, l'intelligence émotionnelle, les attitudes sociales et des choses comme ça."

L'utilisation de l'analyse faciale pour déterminer les émotions ou les traits de personnalité est controversée; certains experts avertissent que la science sous-jacente est erronée.

Lisa Feldman Barrett, professeur à la Northeastern University qui étudie l'analyse des émotions, affirme que le visage d'une personne ne révèle pas à lui seul une émotion ou un caractère. "Juste en regardant quelqu'un sourire, vous ne pouvez rien dire à son sujet, sauf peut-être qu'il a de belles dents", dit-elle. "C'est une mauvaise idée de faire des inférences psychologiques, et donc de déterminer les résultats des gens, en se basant uniquement sur les données faciales."

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd