Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2133

Incidents associés

Incident 954 Rapports
Job Screening Service Halts Facial Analysis of Applicants

Loading...
Plainte et demande d'enquête, d'injonction et d'autre réparation
context-cdn.washingtonpost.com · 2019

I. Résumé

Cette plainte concerne une entreprise qui prétend évaluer les qualifications d'un candidat à un emploi en fonction de son apparence au moyen d'un algorithme propriétaire opaque. HireVue, une entreprise située dans l'Utah, fournit ces "évaluations" aux entreprises qui cherchent à pourvoir des postes vacants, qui à leur tour prennent des décisions d'embauche qui ont un impact sur les opportunités d'emploi d'individus spécifiques. La société nie être engagée dans la reconnaissance faciale et n'a pas réussi à démontrer que sa technique respecte les normes minimales de prise de décision basée sur l'IA énoncées dans les Principes de l'OCDE sur l'IA ou les normes recommandées énoncées dans les Lignes directrices universelles pour l'IA. La société s'est livrée à des pratiques commerciales déloyales et/ou trompeuses, en violation de l'article 5 de la loi FTC. Pour les raisons exposées ci-dessous, la Commission devrait ouvrir une enquête, émettre une injonction et accorder toute autre réparation proposée par l'EPIC.

VI. Violations par HireVue de la loi FTC

A. Utilisation trompeuse par HireVue de la technologie de reconnaissance faciale

Comme décrit ci-dessus, HireVue collecte des données faciales dans ses entretiens vidéo avec des candidats.

Selon la FTC, le terme « technologie de reconnaissance faciale » comprend « les technologies qui détectent simplement la géométrie faciale humaine de base ; les technologies qui analysent la géométrie faciale pour prédire les caractéristiques démographiques, l'expression ou les émotions ; et des technologies qui mesurent la biométrie faciale unique.

HireVue utilise donc la «technologie de reconnaissance faciale» dans ses évaluations vidéo des candidats à l'emploi, telles que définies par la FTC.

HireVue déclare aux candidats qu'il "n'utilise pas la technologie de reconnaissance faciale ni ne suit les traits du visage à des fins de reconnaissance d'identité".

HireVue "n'a pas de "base raisonnable"" pour étayer cette affirmation.

HireVue se livre donc à une pratique commerciale trompeuse en violation de la Federal Trade Commission Act, 15 U.S.C. §§ 45(a)(1).

La FTC a conclu que les utilisations trompeuses de la reconnaissance faciale constituaient une violation de la loi FTC.

En avril 2018, EPIC et une coalition d'organisations de consommateurs ont déposé une plainte soulignant la pratique de Facebook consistant à "scanner régulièrement des photos pour des correspondances faciales biométriques sans le consentement du sujet de l'image" - une pratique commerciale déloyale et trompeuse et une violation de l'ordonnance sur consentement Facebook de 2011 de la Commission.

En juillet 2019, la Commission a déterminé que l'utilisation par Facebook de la technologie de reconnaissance faciale était « [d]eceptive » et « dénature[ed] "la mesure dans laquelle un consommateur peut contrôler la confidentialité" » de ses données faciales en violation de l'ordonnance sur consentement de 2011.

B. Utilisation déloyale par HireVue de la reconnaissance faciale, des données biométriques et des systèmes d'IA

Comme décrit ci-dessus, HireVue utilise la technologie de reconnaissance faciale, des données biométriques et des algorithmes secrets pour soi-disant évaluer la « capacité cognitive », les « traits psychologiques », « l'intelligence émotionnelle » et les « aptitudes sociales » des candidats à un emploi.

L'utilisation par HireVue d'algorithmes secrets pour analyser les données biométriques des candidats à un emploi viole les normes éthiques largement adoptées pour l'utilisation de l'intelligence artificielle (« IA ») et est « injuste » au sens de la loi FTC.

je. Les évaluations algorithmiques de HireVue violent les principes de l'OCDE sur l'IA

Les évaluations algorithmiques des candidats par HireVue ne sont pas transparentes.

Les évaluations algorithmiques de HireVue des candidats à un emploi ne peuvent pas être évaluées ou comprises par les candidats.

Les évaluations algorithmiques de HireVue des candidats à un emploi ne peuvent pas être sérieusement contestées.

HireVue ne peut être tenu pour responsable du bon fonctionnement de ses évaluations algorithmiques secrètes.

HireVue a donc violé les principes de l'OCDE sur l'intelligence artificielle.

ii. Les évaluations algorithmiques de HireVue enfreignent les directives universelles pour l'IA

HireVue ne permet pas aux candidats d'accéder aux données, facteurs, logiques ou techniques de formation utilisés pour générer chaque évaluation algorithmique.

HireVue n'a pas évalué de manière adéquate si le but, les objectifs et les avantages de ses évaluations algorithmiques l'emportent sur les risques.

HireVue n'a pas garanti l'exactitude de ses évaluations algorithmiques.

HireVue n'a pas assuré la fiabilité de ses évaluations algorithmiques.

HireVue n'a pas assuré la validité de ses évaluations algorithmiques.

HireVue n'a pas établi que les évaluations sont exemptes de parti pris injuste et de discrimination inadmissible.

HireVue a donc violé les directives universelles pour l'intelligence artificielle.

iii. Les évaluations algorithmiques de HireVue sont « injustes » en vertu de la loi FTC

L'utilisation par HireVue de données biométriques et d'algorithmes secrets est "inéquitable" car elle "cause ou est susceptible de causer un préjudice substantiel aux consommateurs qui n'est pas raisonnablement évitable par les consommateurs eux-mêmes et qui n'est pas compensé par des avantages compensatoires pour les consommateurs ou pour la concurrence".

L'utilisation par HireVue de données biométriques et d'algorithmes secrets cause ou est susceptible de causer un préjudice substantiel à une large catégorie de personnes, à savoir les candidats à un emploi cherchant à passer un contrat avec l'une des 700 entreprises qui s'appuient sur les évaluations de HireVue.

HireVue prétend collecter "des dizaines de milliers" de points de données biométriques à travers ses évaluations, y compris, mais sans s'y limiter, "l'intonation", "l'inflexion" et les "émotions" d'un candidat.

HireVue saisit ces points de données personnelles dans des "algorithmes prédictifs" secrets qui détermineraient prétendument "l'employabilité" de chaque candidat. Les entreprises s'appuient ensuite sur les évaluations de HireVue pour déterminer s'il convient de contracter les services de chaque candidat.

Étant donné que ces algorithmes sont secrets, même pour HireVue lui-même, dans certains cas, il est impossible pour les candidats à un emploi de savoir comment leurs données personnelles sont utilisées ou de consentir à de telles utilisations.

La collecte intrusive et l'analyse secrète des données biométriques par HireVue causent ainsi des dommages importants à la vie privée des candidats.

La collecte intrusive et l'analyse secrète des données biométriques par HireVue causent également des dommages financiers importants aux candidats. De nombreux candidats à un emploi se voient refuser la possibilité de contracter avec des entreprises sur la base des évaluations algorithmiques de HireVue, et bon nombre de ces mêmes candidats sont obligés de dépenser des ressources importantes pour identifier d'autres opportunités de contrat.

Les blessures causées par l'utilisation par HireVue de données biométriques et d'algorithmes secrets ne peuvent être raisonnablement évitées. Les évaluations basées sur des vidéos et des jeux de HireVue sont utilisées par 700 entreprises », et les candidats à un emploi n'ont pas la possibilité de se retirer ou de contester de manière significative les évaluations de HireVue.

Les dommages causés par l'utilisation par HireVue de données biométriques et d'algorithmes secrets ne sont pas compensés par des avantages compensatoires pour les consommateurs ou la concurrence. HireVue n'a pas réussi à démontrer le but légitime de la collecte des données biométriques des candidats à l'emploi ou de l'utilisation d'algorithmes secrets et non éprouvés pour évaluer la « capacité cognitive », les « traits psychologiques », « l'intelligence émotionnelle » et les « aptitudes sociales » de candidats à l'emploi.

D'autres méthodes permettant d'atteindre l'objectif d'évaluation des candidats à un emploi sont facilement disponibles et utilisées depuis longtemps.

HireVue se livre donc à une pratique commerciale déloyale en violation de la Federal Trade Commission Act, 15 U.S.C. §§ 45(a)(1).

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd