Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 606

Incidents associés

Incident 3734 Rapports
Amazon’s Experimental Hiring Tool Allegedly Displayed Gender Bias in Candidate Rankings

Loading...
Amazon a viré son IA de lecture de CV pour sexisme
popularmechanics.com · 2018

Les algorithmes sont souvent présentés comme étant supérieurs au jugement humain, éliminant les conjectures dans les décisions allant de la conduite à l'écriture d'un e-mail. Mais ils sont toujours programmés par des humains et formés sur les données que les humains créent, ce qui signifie qu'ils sont liés à nous pour le meilleur ou pour le pire. Amazon l'a découvert à ses dépens lorsque le logiciel de recrutement IA de l'entreprise, formé pour examiner les candidatures, s'est avéré discriminatoire à l'égard des candidates.

En place depuis 2014, le logiciel a été conçu pour trouver les meilleurs talents en fouillant dans des montagnes d'applications. L'IA évaluerait les candidats sur une échelle de 1 à 5 étoiles, comme vous pourriez évaluer un produit sur Amazon.

"Tout le monde voulait ce Saint Graal", a déclaré à Reuters une personne impliquée dans l'algorithme. "Ils voulaient littéralement que ce soit un moteur où je vais vous donner 100 CV, il crachera les cinq premiers, et nous les embaucherons."

Le modèle a été formé pour examiner les modèles d'embauche d'Amazon pour les emplois de développeur de logiciels et les postes techniques au cours de la dernière décennie. Alors qu'en surface, cela a du sens - au cours des 10 dernières années, Amazon a énormément grandi, un bon signe qu'il a embauché les bonnes personnes - dans la pratique, cela ne fait que reproduire les préjugés sexistes déjà en place. La plupart des embauches au cours des 10 dernières années étaient en fait des hommes, et l'algorithme a commencé à en tenir compte.

Il a commencé à pénaliser les curriculum vitae qui incluaient le mot "femmes", ce qui signifie que des expressions telles que "volontaire avec Women Who Code" seraient marquées contre la candidate. Il ciblait spécifiquement deux collèges réservés aux femmes, bien que les sources n'aient pas dit à Reuters lesquelles.

L'entreprise a pu modifier l'algorithme pour éliminer ces deux biais particuliers. Mais une question plus large s'est posée : quels autres biais l'IA a-t-elle renforcés qui n'étaient pas si évidents ? Il n'y avait aucun moyen d'en être sûr. Après plusieurs tentatives pour corriger le programme, les dirigeants d'Amazon ont fini par s'en désintéresser en 2017. L'algorithme a été abandonné.

L'incident montre que parce que les humains sont imparfaits, leurs imperfections peuvent être intégrées dans les algorithmes construits dans l'espoir d'éviter de tels problèmes. Les IA peuvent faire des choses que nous n'aurions peut-être jamais rêvé de faire nous-mêmes, mais nous ne pouvons jamais ignorer une vérité dangereuse et inévitable : elles doivent apprendre de nous.

MISE À JOUR, 11 octobre : Amazon a contacté PopMech par l'intermédiaire d'un porte-parole avec une déclaration, disant que "cela n'a jamais été utilisé par les recruteurs d'Amazon pour évaluer les candidats".

Source : Reuters

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd