Problème 2664

La popularité croissante de l'intelligence artificielle (IA) ne peut être sous-estimée. La plupart des entreprises intègrent désormais une certaine forme de technologie d'IA dans leurs processus quotidiens et la sphère RH est également fermement engagée dans cette voie.
Même en 2021, une enquête de Gartner a révélé que presque tous les responsables du recrutement utilisaient déjà l'IA pour optimiser au moins une partie du processus de recrutement et d'embauche. Maintenant, [99 % des entreprises du Fortune 500 s'appuient sur un logiciel de recrutement basé sur l'intelligence artificielle](https://www.forbes.com/sites/forbesnonprofitcouncil/2021/11/16/ai-can-be-a-force-for -good-in-recruiting-and-hiring-new-employees/?sh=5a0dd21f1e16) comme moyen de cibler des candidats de meilleure qualité, d'accélérer le processus d'embauche et de libérer du temps pour les employés.
Globalement, l'intention est d'optimiser le processus de recrutement en le rendant plus efficace. Bien que tout cela ait du sens, cela devient problématique lorsque l'IA est également citée comme un moyen d'éliminer, ou du moins de réduire, le risque de discrimination dans le processus d'embauche.
L'utilisation de l'IA peut-elle réduire la discrimination ?
Certains logiciels de recrutement d'IA sont commercialisés comme un outil qui peut éliminer les préjugés inconscients et la discrimination dans le recrutement en prenant jugement humain du processus décisionnel.
La théorie est que la technologie de l'IA a un QI très élevé, mais pas de QE ou d'intelligence émotionnelle, et ne fera donc pas les mêmes hypothèses discriminatoires à propos d'un candidat à partir de son sexe, de sa formation ou de l'orthographe de son nom qu'un humain pourrait faire, même inconsciemment.
Dans certains cas, cela peut être efficace, mais cela dépendra fortement de la manière dont l'algorithme d'IA a été développé et des critères de sélection utilisés pour distinguer les candidats.
Et si l'IA apprenait à discriminer ?
L'IA fonctionne généralement en examinant des ensembles de données historiques et en apprenant un modèle pour identifier ce que son utilisateur veut, sur la base de décisions humaines antérieures.
En matière de recrutement, cela signifie donner à la technologie de multiples exemples de candidats historiques et leurs taux de réussite, les analyser pour déterminer les qualités d'un « candidat retenu », puis développer un algorithme qui identifie les candidats potentiels les plus susceptibles de réussir et élimine ceux qui ont des qualités indésirables.
Malheureusement, cela signifie que les biais discriminatoires antérieurs peuvent être détectés par l'algorithme, qui apprend alors à répéter ce comportement.
L'IA elle-même peut-elle être discriminatoire ?
En outre, il existe également un risque que les logiciels d'IA créent eux-mêmes des problèmes de discrimination lorsqu'ils tentent de rationaliser le processus de sélection. Par exemple, lorsqu'un logiciel de recrutement analyse les modèles d'écriture ou d'élocution d'un candidat potentiel pour les évaluer, cela pourrait avoir un impact négatif disproportionné sur les personnes neurodiverses ou handicapées, ou même sur les personnes dont la langue maternelle n'est pas l'anglais.
Rejeter ces candidats uniquement sur cette base pourrait donner lieu à des plaintes pour discrimination contre l'employeur, malgré le fait que la décision a été prise par le logiciel d'IA à l'insu de l'employeur.
Une étude récente de l'Université de Cambridge a également révélé que les décisions en matière de technologie d'IA peuvent être affectées par variables non pertinentes, y compris l'éclairage, l'arrière-plan, les vêtements et les expressions faciales.
Non seulement cela signifie que les décisions de recrutement prises à l'aide de cette technologie sont plus susceptibles d'être injustes et inexactes, mais il existe un risque supplémentaire que ces « variables non pertinentes » puissent être manipulées ou apprises par certains candidats, pour augmenter les chances d'un individu de réussir l'IA. évalué les étapes de recrutement. Cela compromettrait l'objectif souvent cité d'utiliser l'IA en premier lieu - pour accroître l'équité et maximiser l'impartialité.
Il est donc essentiel que les employeurs exigent des fournisseurs qu'ils expliquent les critères de sélection utilisés par leur technologie et comment ceux-ci seront appliqués, afin que l'employeur puisse évaluer et identifier les risques potentiels, puis les rectifier avant d'utiliser le logiciel.
Ramifications juridiques
Les régulateurs appellent à un contrôle accru de l'IA dans le domaine de l'emploi, qui est particulièrement vulnérable aux risques, et la loi continue de rattraper son retard.
Jusqu'à présent, au Royaume-Uni, [le gouvernement vient tout juste de publier une "politique de réglementation de l'IA"](https://www.gov.uk/government/publications/establishing-a-pro-innovation-approach-to-regulating-ai /l'établissement-d'une-approche-pro-innovation-pour-réglementer-l'énoncé-de-politique-ai); et le Commissariat à l'information enquête toujours sur les allégations selon lesquelles les algorithmes utilisés dans le recrutement "ont un impact négatif sur les opportunités d'emploi des personnes issues de divers horizons".
En revanche, l'UE a une longueur d'avance et devrait mettre en œuvre la loi sur l'IA. Cela désigne « l'emploi » comme un domaine à « risque élevé ». En vertu de ces nouvelles lois, la technologie de l'IA utilisée dans le cadre de l'emploi et/ou de la gestion des travailleurs devra se conformer à des obligations strictes avant de pouvoir être commercialisée.
À l'avenir, cette loi aura un impact sur toutes les entreprises britanniques dont les opérations s'étendent d'une manière ou d'une autre à l'UE, et d'autres pays (non membres de l'UE) suivront probablement en promulguant des lois similaires.
Comment les employeurs peuvent-ils se protéger ?
Lorsqu'elle est utilisée correctement, l'IA peut être une ressource utile pour rationaliser le processus de recrutement et de sélection, mais les employeurs doivent être prudents : eux et les développeurs de la technologie sont actuellement responsables de s'assurer qu'elle n'est pas utilisée de manière discriminatoire.
Pour ce faire, nous recommandons aux employeurs :
- Parlez aux fournisseurs avant d'acheter la technologie et évaluez si la technologie est appropriée pour votre entreprise et en particulier ses objectifs D&I
- N'utilisez l'IA que dans des parties définies et moins problématiques du processus de recrutement (par exemple, la vérification des références) pour réduire une dépendance excessive à son égard
- Avoir des politiques et des pratiques claires qui couvrent l'utilisation de l'IA dans le processus de recrutement.
- Former ceux qui travaillent aux côtés de la technologie sur ses limites potentielles. Effectuer périodiquement un audit des décisions prises par la technologie, peut-être en faisant appel à un membre de l'équipe RH
- Testez régulièrement la technologie d'IA utilisée et informez rapidement les fournisseurs de tout problème
Bien que l'IA puisse être un outil utile pour automatiser certains aspects du processus de recrutement, les entreprises doivent aborder son utilisation avec prudence et ne pas se fier entièrement aux processus pour garantir un système de recrutement impartial et non discriminatoire.