Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 617

Incidents associés

Incident 3734 Rapports
Amazon’s Experimental Hiring Tool Allegedly Displayed Gender Bias in Candidate Rankings

Loading...
Amazon ferme son système de recrutement d'IA sexiste problématique
mansworldindia.com · 2018

Le géant de la technologie a mis en conserve son système de recrutement expérimental criblé de problèmes, selon Reuters.

Amazon, en 2014, a mis en place le système de recrutement en place, dans l'espoir de mécaniser l'ensemble du processus d'embauche. Il a utilisé l'intelligence artificielle pour attribuer aux candidats des notes allant de une à cinq étoiles. Le système cracherait alors les 5 meilleurs candidats, avec la note et les qualifications les plus élevées.

Mais les spécialistes de l'apprentissage automatique ont découvert un énorme problème avec ce système presque parfait : il était sexiste. Les modèles ont été formés pour évaluer les candidats en observant les tendances dans les CV soumis à l'entreprise sur une période de 10 ans. Une majorité d'entre eux étant des hommes.

Ainsi, l'IA d'Amazon a appris que seuls les candidats masculins conviendraient et a commencé à pénaliser les CV contenant le mot "femmes". Par exemple, un CV qui aurait pu contenir, « la capitaine de l'équipe féminine de basket », a été repoussé encore plus loin dans la liste des candidats les plus aptes.

Ils ont apporté des modifications au programme et ont affirmé avoir résolu le problème, mais les gens n'étaient pas convaincus car ils pensaient que l'IA pourrait trouver d'autres moyens discriminatoires de cibler les femmes.

Amazon a défendu l'entreprise en affirmant que les recruteurs avaient examiné les CV proposés par le système mais ne s'y étaient jamais entièrement fiés. En outre, a souligné son engagement envers la diversité et l'égalité au travail.

Les rapports sur le système défectueux ne faisaient que soutenir les affirmations des femmes concernant la disparité croissante entre les sexes dans l'industrie technologique.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd