
Un système d’embauche basé sur l’intelligence artificielle est devenu un puissant gardien pour certains des employeurs les plus importants d’Amérique, refaçonnant la façon dont les entreprises évaluent leur main-d’œuvre – et comment les employés potentiels prouvent leur valeur. Conçu par la société de technologie de recrutement HireVue, le système utilise les caméras d'ordinateur ou de téléphone portable des candidats pour analyser leurs mouvements faciaux, leur choix de mots et leur voix avant de les classer par rapport aux autres candidats sur la base d'un score «d'employabilité» généré automatiquement. Les « évaluations basées sur l'IA » de HireVue sont devenues si répandues dans certaines industries, y compris l'hôtellerie et la finance, que les universités font des efforts particuliers pour former les étudiants sur la façon de regarder et de parler pour obtenir les meilleurs résultats. Plus de 100 employeurs utilisent désormais le système, dont Hilton et Unilever, et plus d'un million de demandeurs d'emploi ont été analysés. Mais certains chercheurs en intelligence artificielle affirment que le système est de l'huile de serpent numérique – un mélange infondé de mesures superficielles et de calculs arbitraires qui ne sont pas ancrés dans des faits scientifiques. Selon eux, analyser un être humain comme celui-ci pourrait finir par pénaliser les locuteurs non natifs, les personnes interrogées visiblement nerveuses ou toute autre personne qui ne correspond pas au modèle de regard et de parole. Selon eux, le système assumera un rôle essentiel en aidant à décider de la carrière d'une personne. Mais ils doutent même qu'il sache ce qu'il recherche : à quoi ressemble exactement l'employé parfait ? "C'est un développement profondément troublant que nous ayons une technologie propriétaire qui prétend faire la différence entre un travailleur productif et un travailleur qui n'est pas en forme, en fonction de leurs mouvements faciaux, de leur ton de voix, de leurs manières", a déclaré Meredith Whittaker, une co- fondateur du AI Now Institute, un centre de recherche à New York. "C'est de la pseudoscience. C'est une licence de discrimination », a-t-elle ajouté. "Et les personnes dont la vie et les opportunités sont littéralement façonnées par ces systèmes n'ont aucune chance d'intervenir." Loren Larsen, directeur de la technologie chez HireVue, a déclaré que ces critiques ne sont pas fondées et que "la plupart des chercheurs en IA ont une compréhension limitée" de la psychologie qui sous-tend la façon dont les travailleurs pensent et se comportent. Larsen a comparé la capacité des algorithmes à augmenter les résultats d'embauche avec l'amélioration des résultats de santé de la médecine et a déclaré que la science le soutenait. Le système, a-t-il soutenu, est encore plus objectif que les mesures erronées utilisées par les recruteurs humains, dont il a qualifié la pensée de «boîte noire ultime». "Les gens sont rejetés tout le temps en raison de leur apparence, de leurs chaussures, de la façon dont ils ont rentré leur chemise et de leur "chaud"", a-t-il déclaré au Washington Post. "Les algorithmes éliminent la majeure partie de cela d'une manière qui n'était pas possible auparavant." L'IA, a-t-il dit, n'explique pas ses décisions et ne donne pas aux candidats leurs notes d'évaluation, qu'il a qualifiées de "non pertinentes". Mais il n'est "pas logique", a-t-il dit, de supposer que certaines personnes pourraient être injustement éliminées par le juge automatisé. "Lorsque 1 000 personnes postulent pour un emploi", a-t-il déclaré, "999 personnes vont être rejetées, qu'une entreprise utilise l'IA ou non". Mercredi, un important groupe de défense des droits, l'Electronic Privacy Information Center, a déposé une [plainte officielle](https://www.washingtonpost.com/technology/2019/11/06/prominent-rights-group-files-federal-complaint -against-ai-hiring-firm-hirevue-citing-unfair-deceptive-practices/?itid=lk_inline_manual_22 ) exhortant la Federal Trade Commission à enquêter sur HireVue pour pratiques « déloyales et trompeuses ». Les résultats « biaisés, non prouvables et non reproductibles » du système, ont écrit les responsables de l'EPIC, constituent une menace majeure pour la vie privée et les moyens de subsistance des travailleurs américains. Connecticut senior étudiant en mathématiques et en économie avec un 3.5 GPA, a déclaré qu'elle a recherché HireVue et a fait de son mieux pour éblouir la machine d'entretien d'embauche. Elle a répondu avec confiance et dans le temps imparti. Elle a utilisé des mots clés positifs. Elle a souri, souvent et largement. Mais quand elle n'a pas obtenu le poste de banque d'investissement, elle n'a pas pu voir comment l'ordinateur l'avait notée ou lui demander comment elle pouvait s'améliorer, et elle s'est inquiétée de ce qu'elle avait manqué. Selon le système d'embauche de l'IA, qu'est-ce qu'elle s'est trompée ? "J'ai l'impression que c'est peut-être l'une des raisons pour lesquelles je n'ai pas compris : j'ai parlé un peu trop naturellement", a déclaré Vartuli. "Peut-être que je n'ai pas utilisé assez gros, mots fantaisistes. J'ai utilisé 'congl omerate’ une fois. HireVue a déclaré que son système dissèque les moindres détails des réponses des candidats – leurs expressions faciales, leur contact visuel et leur « enthousiasme » perçu – et compile les rapports que les entreprises peuvent utiliser pour décider qui embaucher ou ignorer. petites choses qu'ils se sont trompés, et ils ne peuvent pas demander à la machine ce qu'ils pourraient faire mieux.Les responsables du recrutement humains peuvent utiliser d'autres facteurs, au-delà du score HireVue, pour décider quels candidats réussissent le test de premier tour.Le système, a déclaré HireVue, emploie une précision et une impartialité surhumaines pour se concentrer sur un employé idéal, en détectant des indices révélateurs qu'un recruteur pourrait manquer. La start-up AllyO de la Silicon Valley, par exemple, annonce un « bot d'automatisation du recrutement » qui peut envoyer un SMS à un candidat : « Êtes-vous prêt à déménager ? Et un concurrent de HireVue, le « recruteur digital » VCV, propose un système similaire pour les entretiens téléphoniques, au cours desquels la voix et les réponses d'un candidat sont analysées par une machine de « filtrage automatisé ». le nouveau monde courageux du recrutement d'entreprise semi-automatisé. Il dit qu'il peut faire économiser une fortune aux employeurs sur les entretiens en personne et éliminer rapidement les candidats jugés inférieurs. HireVue dit qu'il permet également aux entreprises de voir des candidats à partir d'un bassin d'embauche élargi : Toute personne disposant d'un téléphone et la connexion Internet peut s'appliquer. Nathan Mondragon, psychologue industriel et organisationnel en chef de HireVue, a déclaré à The Post que l'évaluation HireVue standard de 30 minutes comprend une demi-douzaine de questions mais peut générer jusqu'à 500 000 points de données, qui deviennent tous des ingrédients dans le score calculé de la personne. L'employeur décide des questions écrites, que le système de HireVue montre ensuite au candidat tout en enregistrant et en analysant ses réponses. comment le visage d'une personne bouge pour déterminer, par exemple, à quel point quelqu'un semble excité à propos d'une certaine tâche de travail ou comment il se comporterait avec des clients en colère. Ces «unités d'action faciale», a déclaré Mondragon, peuvent représenter 29% du score d'une personne; les mots qu'ils prononcent et les « caractéristiques audio » de leur voix, comme leur ton, constituent le reste. « Les humains sont incohérents par nature. Ils injectent leur subjectivité dans les évaluations », a déclaré Mondragon. "Mais l'IA peut baser sur une base de données ce que l'humain traite lors d'un entretien, sans parti pris. … Et les humains croient maintenant aux décisions de la machine plutôt qu'à la rétroaction humaine. Pour former le système sur ce qu'il faut rechercher et adapter le test à un travail spécifique, les travailleurs actuels de l'employeur occupant le même poste – "l'ensemble du spectre, des plus performants aux moins performants" – passent l'évaluation de l'IA, a déclaré Larsen. Leurs réponses, a déclaré Larsen, sont ensuite associées à un "indice de réussite" basé sur les performances professionnelles antérieures de ces travailleurs, comme la mesure dans laquelle ils ont atteint leurs quotas de vente et la rapidité avec laquelle ils ont résolu les appels des clients. En d'autres termes, les meilleurs candidats finissent par ressembler et ressembler aux employés qui avaient bien travaillé avant même que les embauches potentielles ne postulent. Après qu'un nouveau candidat a passé le test HireVue, le système génère un bulletin sur ses "compétences et comportements", y compris sa "volonté d'apprendre", sa "conscienciosité et responsabilité" et sa "stabilité personnelle", cette dernière étant définie par la façon dont ainsi, ils peuvent faire face à des "clients ou collègues irritables". Ces traits de personnalité estimés par ordinateur sont ensuite utilisés pour regrouper les candidats en niveaux supérieur, moyen et inférieur en fonction de leur "probabilité de succès". Les employeurs peuvent toujours rechercher des candidats classés au dernier rang, mais plusieurs personnes interrogées par The Post ont déclaré qu'ils se concentraient principalement sur ceux que le système informatique préférait. HireVue n'offre que l'aperçu le plus limité de ses algorithmes d'entretien, à la fois pour protéger ses secrets commerciaux et parce que l'entreprise ne sait pas toujours comment le système décide qui est étiqueté comme "futur meilleur interprète". L'entreprise n'a donné que de vagues explications pour définir quels mots ou comportements offrent les meilleurs résultats. Pour un emploi dans un centre d'appels, selon l'entreprise, les mots « de soutien » peuvent être encouragés, tandis que les mots « agressifs » peuvent faire baisser le score. HireVue a déclaré que son conseil d'experts-conseils revoyait régulièrement son approche algorithmique, mais la société a refusé de rendre le système disponible pour un audit indépendant. La société, a déclaré Larsen, "explore actuellement le recours à un auditeur indépendant, pour voir comment cela pourrait fonctionner". HireVue a lancé son service d'évaluation de l'IA en 2014 en complément de son logiciel d'entretien vidéo, que plus de 700 entreprises ont utilisé pour près de 12 millions d'entretiens dans le monde. La société basée dans l'Utah ne divulguera pas ses revenus, le coût pour les employeurs ou une liste complète de clients. La société a déclaré le mois dernier que le géant du capital-investissement Carlyle Group deviendrait son nouvel investisseur majoritaire, fournissant une somme non divulguée à partir d'un fonds de 18,5 milliards de dollars. Patrick McCarter, directeur général de la société d'investissement - qui utilise les entretiens vidéo de HireVue en interne et a déclaré qu'il "cherchera à déployer des évaluations de candidats basées sur l'IA au fil du temps" - a déclaré que l'argent aiderait l'entreprise à s'étendre à davantage d'employeurs et à des offres d'emploi plus spécialisées. , tant aux États-Unis qu'ailleurs dans le monde. Chez le géant hôtelier Hilton International, des milliers de candidats à des postes de réservation, de gestion des revenus et de centre d'appels sont passés par le système d'IA de HireVue, et les dirigeants attribuent aux entretiens automatisés la réduction de leur temps d'embauche moyen de six semaines à cinq jours. Sarah Smart, vice-présidente du recrutement mondial de l'entreprise, a déclaré que le système avait radicalement redessiné les rituels d'embauche de Hilton, permettant à l'entreprise de traiter les candidats à la vitesse de l'éclair. Les responsables du recrutement inondés de candidats peuvent désormais simplement regarder qui est le mieux classé par le système et filtrer le reste : "Il est rare qu'un recruteur ait besoin de sortir de cette fourchette", a-t-elle déclaré. Chez le conglomérat de biens de consommation Unilever, HireVue est crédité d'avoir aidé à économiser 100 000 heures de temps d'entretien et environ 1 million de dollars en frais de recrutement par an. Leena Nair, directrice des ressources humaines de l'entreprise, a déclaré que le système avait également aidé à dissuader les managers de n'embaucher que des "mini-mois" qui leur ressemblent et agissent comme eux, augmentant les "recrutements de la diversité" de l'entreprise, comme elle les appelait, d'environ 16 pour cent. "Plus nous devenons numériques, plus nous devenons humains", a-t-elle ajouté. Dane E. Holmes, responsable mondial de la gestion du capital humain chez Goldman Sachs, client de HireVue, a écrit ce printemps dans le Harvard Business Review que les quelque 50 000 enregistrements d'entretiens vidéo du géant bancaire étaient "un trésor de données qui nous aidera à mener des enquêtes perspicaces". analyses. " La banque d'investissement a déclaré qu'elle utilisait le système d'entretien vidéo de HireVue mais pas ses évaluations générées par ordinateur. Mais Holmes a déclaré que les données de ces vidéos pourraient aider l'entreprise à déterminer comment les compétences et les antécédents des candidats pourraient correspondre à la façon dont ils travailleraient ou combien de temps ils resteraient dans l'entreprise. L'entreprise, a-t-il ajouté, "expérimente également des algorithmes de lecture de CV" qui aideraient à décider des départements et des tâches des nouvelles recrues. "Puis-je imaginer un avenir dans lequel les entreprises s'appuient exclusivement sur des machines et des algorithmes pour évaluer les CV et les entretiens ? Peut-être, pour certains", a-t-il écrit. (L'"élément humain" du recrutement, a-t-il promis, survivrait chez Goldman Sachs.) L'expansion de HireVue l'a également n entreprises de groupes plus petits tels que Re:work, une organisation à but non lucratif de Chicago qui forme des demandeurs d'emploi locaux sans emploi à des carrières dans l'industrie technologique. Shelton Banks, le chef du groupe, a déclaré que HireVue s'était avéré être un guide irremplaçable pour évaluer quels candidats en valaient la peine. L'organisation à but non lucratif permettait autrefois à presque tout le monde de participer à son programme de formation intensif de huit semaines, mais beaucoup se sont épuisés tôt. Désormais, chaque candidat passe d'abord par l'évaluation de l'IA, qui les classe en fonction de leurs compétences en résolution de problèmes et en négociation et aide le groupe à déterminer qui pourrait avoir le plus de motivation, de curiosité et de courage. "Savoir où se trouve cette personne à un point de départ, en ce qui concerne la vie de cette personne", a déclaré Banks, "peut nous aider à faire des évaluations plus précises des personnes à qui nous disons oui ou non." Mais Lisa Feldman Barrett, une neuroscientifique qui étudie les émotions, a déclaré qu'elle était "fortement sceptique" que le système puisse vraiment comprendre ce qu'il regarde. Elle a récemment dirigé une équipe de quatre scientifiques chevronnés, dont un expert en systèmes de « vision par ordinateur », dans assessing plus plus de 1 000 articles de recherche publiés étudient si le visage humain montre des expressions universelles d'émotion et dans quelle mesure les algorithmes peuvent les comprendre. Les systèmes, ont-ils découvert, sont devenus assez perspicaces pour détecter les mouvements du visage – en repérant la différence, par exemple, entre un sourire et un froncement de sourcils. Mais ils sont toujours imprécis dans la compréhension de ce que ces mouvements signifient réellement et malheureusement mal préparés aux vastes distinctions culturelles et sociales dans la façon dont les gens montrent leurs émotions ou leur personnalité. Regardez le renfrognement, Barrett a déclaré: Un ordinateur peut voir le froncement des sourcils et le front plissé d'une personne et supposer qu'elle est facilement en colère – un drapeau rouge pour quelqu'un qui cherche un emploi d'associé aux ventes. Mais les gens se renfrognent tout le temps, dit-elle, "quand ils ne sont pas en colère : quand ils se concentrent très fort, quand ils sont confus, quand ils ont des gaz". Luke Stark, un chercheur du laboratoire de recherche de Microsoft à Montréal qui étudie les émotions et l'IA - qui parlait en tant qu'individu et non en tant qu'employé de Microsoft - était également sceptique quant à la capacité de HireVue à prédire la personnalité d'un travailleur à partir de ses intonations et de ses tournures de phrases. Des systèmes comme HireVue, a-t-il dit, sont devenus assez habiles pour cracher des points de données qui semblent convaincants, même lorsqu'ils ne sont pas soutenus par la science. Et il trouve ce "charisme des chiffres" vraiment troublant en raison de l'excès de confiance que les employeurs pourraient leur prêter lorsqu'ils cherchent à décider du cheminement de carrière des candidats. Les meilleurs systèmes d'IA d'aujourd'hui, a-t-il dit, sont notoirement enclins à mal comprendre le sens et l'intention. Mais il craignait que même leur succès perçu à deviner la vraie valeur d'une personne puisse contribuer à perpétuer une monoculture d'entreprise "homogène" d'automates, chaque nouvelle embauche calquée sur la précédente. La société, a déclaré Larsen de HireVue, audite ses données de performance pour rechercher des pratiques d'embauche potentiellement discriminatoires, connues sous le nom d'impacts négatifs, en utilisant des techniques de "test de biais de classe mondiale". Les algorithmes de la société, a-t-il ajouté, ont été formés "à l'aide de l'ensemble de données d'unités d'action faciale le plus approfondi et le plus diversifié disponible, qui comprend des personnes de nombreux pays et cultures". La croissance de HireVue, cependant, se heurte à quelques problèmes réglementaires. En août, le gouverneur de l'Illinois, J.B. Pritzker (D), a signé une première loi de la nation qui obliger les employeurs à dire aux candidats comment fonctionne leur système de recrutement par IA et à obtenir leur consentement avant de les faire passer le test. La mesure, que HireVue a déclaré soutenir, entrera en vigueur le 1er janvier. Le représentant d'État Jaime Andrade Jr. (D), qui a coparrainé le projet de loi, a déclaré qu'il avait poussé la loi sur la transparence après avoir appris combien de candidats à un emploi avaient été rejetés à l'étape de l'IA d'un entretien d'embauche. Il craignait que les accents parlés ou les différences culturelles ne finissent par déformer les résultats de manière inappropriée, et que les personnes qui refusaient de se présenter à l'évaluation puissent être injustement punies en n'étant pas prises en compte pour le poste. « Qu'est-ce que l'employé modèle ? Est-ce un homme blanc ? Une femme blanche ? Quelqu'un qui sourit beaucoup ? il a dit. « Quels sont les points de données utilisés ? Il doit y avoir une explication et il doit y avoir un consentement. HireVue avertit les candidats qu'il n'y a aucun moyen de tromper, de tricher ou de pirater le système, car il évalue des dizaines de milliers de facteurs pour évaluer un "ensemble unique de compétences personnelles". "Faites ce qui vous semble le plus naturel", indique la société dans un [guide] en ligne (https://www.hirevue.com/blog/how-to-prepare-for-your-hirevue-assessment). Mais environ une douzaine de personnes interrogées qui ont passé le test d'IA – y compris certaines qui ont obtenu le poste – ont déclaré au Post qu'il était aliénant et déshumanisant de devoir épater un ordinateur avant d'être jugé digne du temps d'une entreprise. Ils se sont demandé ce qui serait fait de la vidéo par la suite et ont déclaré qu'ils se sentaient mal à l'aise de devoir répondre à des demandes d'IA inexpliquées. Plusieurs ont dit qu'ils avaient carrément refusé de faire l'entretien parce que, selon les mots d'un candidat, l'idée "m'a fait ramper la peau". Les candidats ont déclaré qu'ils cherchaient des idées sur la façon de maximiser leur valeur devant l'œil de l'algorithme, se tournant vers les centaines de vidéos et de manuels en ligne suggérant, par exemple, qu'ils s'assoient devant un mur blanc et propre, de peur que l'encombrement de l'arrière-plan n'atténue leur note. . "Collez des yeux écarquillés sur votre webcam. Cela facilitera le maintien du contact visuel », a suggéré un utilisateur du babillard Reddit. Stark, le chercheur en IA, a déclaré que ces "théories populaires des algorithmes" étaient une réponse naturelle des personnes confrontées à des systèmes d'IA impénétrables avec le pouvoir de décider de leur sort. Les techniques de survie pourraient sembler rassurantes, a-t-il dit, même si elles étaient fausses : choisissez les bons mots, utilisez le bon ton, affichez un visage suffisamment heureux. "C'est une façon d'essayer de donner aux gens confrontés à un système opaque qu'ils ne comprennent pas un sentiment d'agence", a-t-il déclaré. Mais certaines personnes interrogées par HireVue se sont demandé s'il était juste ou même intelligent de juger les performances ou les capacités personnelles d'une personne sur la base d'une demi-heure passée à regarder une webcam. Ils craignaient également que les nerfs des gens à propos de la nature étrange de l'examen ne finissent par les disqualifier purement et simplement. Emma Rasiel, professeur d'économie à l'Université Duke qui conseille régulièrement les étudiants à la recherche d'un emploi à Wall Street, a déclaré avoir vu un nombre croissant d'étudiants excessivement perturbés par leur prochain test HireVue. Le département d'économie de l'université propose désormais un guide pour les entretiens HireVue sur son [site Web] de ressources étudiantes (https://econ.duke.edu/dfe/student-resources), y compris des questions typiques (« Que signifie l'intégrité pour vous ? ») et des conseils comportementaux (« Agissez naturellement, parlez lentement ! ”). "C'est une façon tellement nouvelle et inédite de communiquer qui ils sont que cela ajoute à leur anxiété", a déclaré Rasiel. "Nous avons une génération anxieuse, et maintenant nous leur demandons de parler à un écran d'ordinateur, de répondre à des questions à une caméra... sans véritables directives sur la façon de se faire mieux ou moins bien." Les demandes mystérieuses peuvent également pousser l'angoisse des gens à l'excès. Lorsque Sheikh Ahmed, un homme de 25 ans dans le Queens, a postulé pour des emplois de caissier dans des banques autour de New York, il a déclaré avoir reçu huit offres d'évaluation HireVue, toutes prévues pour le même jour. Il a étudié des guides sur la façon de parler et d'agir, mais a trouvé que le plus difficile était de déterminer l'angle de la caméra : trop haut, il s'inquiétait, et il aurait l'air dominateur ; trop bas, et il aurait l'air rétréci et faible. Avant son marathon d'entretiens avec l'IA, il a enfilé une chemise impeccable, une cravate et un pantalon de pyjama et s'est rendu dans le studio de musique insonorisé de son père, loin du pinson de la société gazouillante de la famille. Il a également éteint son système de climatisation, espérant que le bruit de fond ne gâcherait pas son score. Il a légèrement modifié ses réponses à chaque entretien, dans l'espoir que l'algorithme trouverait quelque chose qui lui plaisait. Mais il a trouvé épuisant et décourageant de résumer son expérience de vie et sa dignité dans une phrase sonore adaptée à l'ordinateur. À la fin, sa bouche était sèche, il était couvert de sueur et il était paranoïaque, il n'avait pas établi suffisamment de contact visuel en s'inquiétant pour l'oiseau. Quelques semaines après les entretiens, a-t-il dit, il attend toujours de savoir s'il a trouvé un emploi. Correction : en raison d'informations incorrectes de Goldman Sachs, The Post a mal rapporté dans une version antérieure de cette histoire que la banque d'investissement avait utilisé le programme d'évaluation basé sur l'IA de HireVue. Les représentants de Goldman Sachs ont déclaré qu'ils n'utilisaient que le système d'entretien vidéo de HireVue, et non ses évaluations automatisées.