Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 600

Incidents associés

Incident 3734 Rapports
Amazon’s Experimental Hiring Tool Allegedly Displayed Gender Bias in Candidate Rankings

Loading...
Amazon abandonne son outil de recrutement "IA sexiste"
independent.co.uk · 2018

Amazon a abandonné un outil "sexiste" qui utilisait l'intelligence artificielle pour décider des meilleurs candidats à embaucher.

Les membres de l'équipe travaillant sur le système ont déclaré qu'il s'était effectivement appris que les candidats masculins étaient préférables.

Le logiciel d'intelligence artificielle a été créé par une équipe du bureau d'Amazon à Édimbourg en 2014 afin de trier automatiquement les CV et de sélectionner les candidats les plus talentueux.

Mais l'algorithme s'est rapidement appris à favoriser les candidats masculins par rapport aux candidats féminins, selon les membres de l'équipe qui se sont entretenus avec Reuters.

Ils ont réalisé que c'était pénalisant les CV qui incluaient le mot "femmes", comme "capitaine d'un club d'échecs féminin". Il aurait également déclassé les diplômés de deux collèges réservés aux femmes.

Le problème est né du fait que le système a été formé sur les données soumises par les candidats sur une période de 10 ans - dont une grande partie provenait d'hommes.

Cinq membres de l'équipe qui ont développé l'outil d'apprentissage automatique - dont aucun ne voulait être nommé publiquement - ont déclaré que le système était destiné à examiner les candidatures et à attribuer aux candidats une note allant de une à cinq étoiles.

Certains membres de l'équipe ont souligné le fait que cela reflétait la façon dont les acheteurs évaluent les produits sur Amazon.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd