Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 624

Incidents associés

Incident 3733 Rapports
Female Applicants Down-Ranked by Amazon Recruiting Tool

Amazon supprime l'outil de recrutement "IA sexiste" qui a montré un parti pris contre les femmes
telegraph.co.uk · 2018

Amazon a abandonné un outil interne "sexiste" qui utilisait l'intelligence artificielle pour trier les candidatures.

L'IA a été créée par une équipe du bureau d'Amazon à Édimbourg en 2014 afin de trier automatiquement les CV et de sélectionner les candidats les plus prometteurs.

Cependant, il a rapidement appris à préférer les candidats masculins aux candidats féminins, selon les membres de l'équipe qui se sont entretenus avec Reuters.

Ils ont remarqué que cela pénalisait les CV qui incluaient le mot "femmes", comme "capitaine d'un club d'échecs féminin". Il aurait également déclassé les diplômés de deux collèges réservés aux femmes.

Le problème provenait du fait que le système était formé sur des données soumises par des personnes sur une période de 10 ans, dont la plupart provenaient d'hommes.

L'IA a été modifiée pour tenter de corriger le biais. Cependant, l'année dernière, Amazon a perdu confiance en sa capacité à être neutre et a complètement abandonné le projet.

On pense que les recruteurs d'Amazon ont utilisé le système pour examiner les recommandations lors de l'embauche, mais ne se sont pas fiés aux classements. Actuellement, les femmes représentent 40% de la main-d'œuvre d'Amazon.

Stevie Buckley, le co-fondateur du site Web d'emploi britannique Honest Work, qui est utilisé par des entreprises telles que Snapchat pour recruter pour des postes technologiques, a déclaré que «le principe de base consistant à attendre d'une machine qu'elle identifie les candidats solides en fonction des pratiques d'embauche historiques de votre est une méthode infaillible pour faire évoluer rapidement les préjugés inhérents et les pratiques de recrutement discriminatoires. »

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • d414e0f