Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 601

Incidents associés

Incident 3734 Rapports
Amazon’s Experimental Hiring Tool Allegedly Displayed Gender Bias in Candidate Rankings

Loading...
Amazon abandonne son outil de recrutement basé sur l'IA "sexiste"
news.com.au · 2018

Qu'est-ce que l'intelligence artificielle (IA) ? Nous examinons les progrès de l'IA et de l'automatisation en Australie par rapport au reste du monde et comment la main-d'œuvre australienne peut être affectée par ce mouvement.

L'essor de l'IA va-t-il supprimer nos emplois ? 0:57

AMAZON a été forcée d'abandonner un outil secret de recrutement d'intelligence artificielle après avoir découvert qu'il était discriminatoire à l'égard des femmes.

Selon un rapport de Reuters, depuis 2014, les ingénieurs d'Amazon ont construit un programme informatique pour examiner les CV dans le but d'automatiser le processus de recherche de talents.

L'outil donnerait aux candidats à l'emploi une note de une à cinq étoiles.

"Tout le monde voulait ce Saint Graal", a déclaré une source à l'agence de presse. "Ils voulaient littéralement que ce soit un moteur où je vais vous donner 100 CV, il crachera les cinq premiers, et nous les embaucherons."

Au bout d'un an, cependant, Amazon s'est rendu compte que son système favorisait les candidats masculins pour les développeurs de logiciels et d'autres rôles techniques, car il observait des tendances dans les CV soumis sur une période de 10 ans, dont la plupart provenaient d'hommes.

Il a également pénalisé les CV qui incluaient le mot "femmes", selon Reuters, comme dans l'expression "capitaine du club d'échecs féminin" et les collèges entièrement féminins.

Même si le programme a été modifié pour le rendre neutre par rapport à ces termes, les programmeurs ne pouvaient pas garantir que l'IA n'apprendrait pas à trier les candidats d'autres manières discriminatoires, indique le rapport.

Le projet a finalement été complètement abandonné début 2017.

Il est entendu que le projet n'a jamais été utilisé que dans une phase de développement, jamais de manière indépendante et jamais étendu à un groupe plus large.

Il a été abandonné pour de nombreuses raisons – il n'a jamais renvoyé de candidats solides pour les rôles – et non à cause du problème de partialité.

Une porte-parole d'Amazon a déclaré: "Cela n'a jamais été utilisé par les recruteurs d'Amazon pour évaluer les candidats."

frank.chung@news.com.au

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd