Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 6687

Loading...
Une �étude australienne met en garde contre les risques de discrimination lors des entretiens d'embauche menés par une IA.
theguardian.com · 2025

Une nouvelle étude met en garde contre le risque de discrimination pour les candidats interviewés par des recruteurs virtuels (IA) s'ils ont un accent ou sont en situation de handicap.

Ce mois-ci, des vidéos de candidats interagissant avec des recruteurs virtuels parfois défaillants, dans le cadre du processus de recrutement, ont été largement partagées sur TikTok.

Le recours au recrutement vidéo par IA a progressé ces dernières années. HireVue, une entreprise de logiciels de recrutement par IA utilisée par de nombreux employeurs, a indiqué en février que, parmi 4 000 employeurs interrogés dans le monde, l'utilisation de l'IA dans le recrutement était passée de 58 % en 2024 à 72 % en 2025.

Une étude australienne publiée ce mois-ci estime que l'utilisation est nettement inférieure (environ 30 % dans les entreprises australiennes), mais devrait augmenter au cours des cinq prochaines années.

Cependant, l'article de Natalie Sheard, chercheuse à la faculté de droit de l'Université de Melbourne, met en garde contre le risque de discrimination lié à l'utilisation de systèmes de recrutement basés sur l'IA pour la présélection des candidats. Ce risque est dû aux biais introduits par la taille limitée des ensembles de données utilisés pour l'entraînement des modèles d'IA.

Dans le cadre de ses recherches, Natalie Sheard a interrogé 18 professionnels des ressources humaines en Australie sur leur utilisation de l'IA dans le recrutement. Parmi eux, 13 avaient recours à des systèmes de recrutement basés sur l'IA au sein de leur entreprise. L'outil le plus courant était l'analyse de CV, suivi par les entretiens vidéo.

Selon Natalie Sheard, les ensembles de données fondés sur des informations limitées, souvent axées sur les données américaines au détriment des données internationales, présentent un risque de biais pour ces systèmes d'IA. Une entreprise de systèmes d'IA citée dans son étude, par exemple, a indiqué que seulement 6 % des données d'entraînement de ses candidats provenaient d'Australie ou de Nouvelle-Zélande, et que 36 % des candidats inclus dans ces données étaient blancs.

Cette même entreprise a déclaré, d'après l'article, que son taux d'erreur de transcription pour les locuteurs anglophones américains est inférieur à 10 % en moyenne. Cependant, lors des tests effectués auprès de personnes non anglophones ayant un accent étranger, ce taux d'erreur grimpe entre 12 et 22 %. Ce dernier taux concerne les personnes non anglophones d'origine chinoise.

« Les données d'entraînement proviennent du pays où les systèmes sont développés ; or, beaucoup sont développés aux États-Unis et ne reflètent donc pas la composition démographique de l'Australie », a déclaré Sheard.

Des participants à l'étude ont indiqué à Sheard que les personnes non anglophones ou celles souffrant d'un handicap affectant leur élocution pouvaient constater des erreurs de transcription et, par conséquent, être moins bien notées par l'algorithme de recrutement.

Deux participants ont alors demandé des garanties à leur fournisseur de logiciel afin de s'assurer que celui-ci ne désavantageait pas les candidats ayant un accent. Sheard a précisé qu'on leur avait assuré que l'IA était « très performante pour comprendre les accents », sans toutefois fournir de preuves à l'appui.

Sheard a déploré le manque de transparence, voire l'absence totale de transparence, concernant les systèmes d'entretien par IA utilisés, tant pour les candidats potentiels que pour les recruteurs et les employeurs.

« Voilà le problème. Dans un processus humain, on peut retourner voir le recruteur et lui demander un retour d'information. Or, j'ai constaté que les recruteurs ignorent même les raisons des décisions prises et sont donc incapables de fournir un retour constructif », a-t-elle déclaré.

« C'est un problème pour les demandeurs d'emploi… Il est très difficile de déterminer les responsabilités, mais il est clair que les fournisseurs et les employeurs sont légalement responsables de toute discrimination commise par ces systèmes. »

Aucun cas de discrimination liée à l'IA n'a encore été porté devant les tribunaux australiens, a précisé Mme Sheard. Tout cas de discrimination doit d'abord être soumis à la Commission australienne des droits de l'homme.

En 2022, le commissaire fédéral à la protection du mérite a révélé que 11 décisions de promotion prises au sein de Services Australia l'année précédente avaient été annulées. Cette annulation faisait suite à l'externalisation du processus de sélection auprès d'un spécialiste du recrutement qui utilisait des techniques de sélection automatisées par intelligence artificielle, notamment des tests psychométriques, des questionnaires et des réponses vidéo enregistrées.

Il a été constaté que le processus de sélection « n'atteignait pas toujours l'objectif principal, à savoir sélectionner les candidats les plus méritants ».

Sheard a déclaré que le gouvernement travailliste d'Albanese, de retour au pouvoir, devrait envisager une loi spécifique sur l'IA afin de réglementer son utilisation et, potentiellement, renforcer les lois existantes contre la discrimination pour se prémunir contre la discrimination fondée sur l'IA.

Cet article a été modifié le 14 mai 2025. Une version précédente indiquait par erreur que les candidats à l'emploi risquaient d'être victimes de discrimination s'ils n'avaient pas d'accent américain. La version précédente indiquait également, à tort, que 23 professionnels des ressources humaines avaient été interviewés et que 33 % des candidats à l'emploi figurant dans les données de formation étaient blancs.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd