Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 603

Incidents associés

Incident 3733 Rapports
Female Applicants Down-Ranked by Amazon Recruiting Tool

Amazon abandonne l'outil de recrutement d'IA qui "a appris à être sexiste"
afr.com · 2018

Londres | Amazon a abandonné un outil interne "sexiste" qui utilisait l'intelligence artificielle pour trier les candidatures.

Le programme a été créé par une équipe du bureau d'Amazon à Édimbourg en 2014 afin de trier les CV et de sélectionner les candidats les plus prometteurs. Cependant, il a appris à préférer les candidats masculins aux candidats féminins, ont déclaré des membres de l'équipe à Reuters.

Ils ont remarqué que c'était pénalisant les CV qui incluaient le mot "femmes", comme "capitaine de club d'échecs féminin". Il aurait également déclassé les diplômés de deux collèges réservés aux femmes.

Jeff Bezos, PDG d'Amazon. Les femmes représentent 40 % de la main-d'œuvre d'Amazon. PA

Le problème provenait du fait que le système était formé sur des données soumises par des personnes sur une période de 10 ans, dont la plupart provenaient d'hommes.

L'IA a été modifiée pour tenter de corriger le biais. Cependant, l'année dernière, Amazon a perdu confiance en sa capacité à être neutre et a abandonné le projet. On pense que les recruteurs d'Amazon ont utilisé le système pour examiner les recommandations lors de l'embauche, mais ne se sont pas fiés aux classements. Actuellement, les femmes représentent 40 % de la main-d'œuvre d'Amazon.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • a9df9cf