Journal des citations pour l'incident 37

Description: Amazon shuts down internal AI recruiting tool that would down-rank female applicants.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique
Présumé : Un système d'IA développé et mis en œuvre par Amazon, endommagé female applicants.

Statistiques d'incidents

ID
37
Nombre de rapports
33
Date de l'incident
2016-08-10
Editeurs
Sean McGregor

Classifications de taxonomie CSETv0

Détails de la taxonomie

Full Description

In 2015, Amazon scrapped an internal recruiting algorithm developed by its Edinburgh office that would down-rank resumes when it included the word "women's", and two women's colleges. The algorithm ranked an applicant out of five stars, and it would give preference to resumes that contained what Reuters called "masculine language," or strong verbs like "executed" or "captured". These patterns occured because the engineered who made the algorithm trained it with past candidates' resumes submitted over the previous ten years, and the past candidates in the industry were male-dominated.

Short Description

Amazon shuts down internal AI recruiting tool that would down-rank female applicants.

Severity

Negligible

Harm Distribution Basis

Sex

Harm Type

Psychological harm, Financial harm

AI System Description

Resume screening tool developed by Amazon to scan resumes and raise strong job applicants for consideration

System Developer

Amazon

Sector of Deployment

Professional, scientific and technical activities

Relevant AI functions

Perception, Cognition

AI Techniques

Natural language processing

AI Applications

Natural language processing

Location

Edinburgh, Scotland

Named Entities

Amazon, Edinburgh

Technology Purveyor

Amazon

Beginning Date

2014-01-01

Ending Date

2015-01-01

Near Miss

Near miss

Intent

Accident

Lives Lost

No

Data Inputs

Resumes

Amazon a abandonné l'outil de recrutement IA sexiste

channels.theinnovationenterprise.com

Amazon abandonne son outil de recrutement "IA sexiste"
independent.co.uk · 2018

Amazon a abandonné un outil "sexiste" qui utilisait l'intelligence artificielle pour décider des meilleurs candidats à embaucher.

Les membres de l'équipe travaillant sur le système ont déclaré qu'il s'était effectivement appris que les cand…

Comment Amazon a accidentellement inventé un algorithme d'embauche sexiste
inc.com · 2018

Amazon a découvert un problème avec l'utilisation de l'intelligence artificielle pour embaucher : leur IA était biaisée contre les femmes.

La société basée à Seattle a développé des programmes informatiques conçus pour filtrer des centaines…

Amazon supprime l'outil de recrutement "IA sexiste" qui a montré un parti pris contre les femmes
telegraph.co.uk · 2018

Amazon a abandonné un outil interne "sexiste" qui utilisait l'intelligence artificielle pour trier les candidatures.

L'IA a été créée par une équipe du bureau d'Amazon à Édimbourg en 2014 afin de trier automatiquement les CV et de sélection…

Amazon a tué son système de recrutement par IA pour parti pris contre les femmes-Rapport
fortune.com · 2018

L'apprentissage automatique, l'une des techniques de base dans le domaine de l'intelligence artificielle, consiste à apprendre aux systèmes automatisés à concevoir de nouvelles façons de faire les choses, en leur fournissant des tonnes de d…

Amazon a supprimé l'outil "IA sexiste"
bbc.com · 2018

Copyright de l'image Getty Images Légende L'algorithme a répété les préjugés envers les hommes, reflétés dans l'industrie technologique

Un algorithme testé comme outil de recrutement par le géant en ligne Amazon était sexiste et a dû être a…

Amazon a construit un outil d'intelligence artificielle pour embaucher des personnes, mais a dû le fermer car il était discriminatoire à l'égard des femmes
businessinsider.com.au · 2018

David Ryder/Getty Images PDG d'Amazon, Jeff Bezos.

Amazon a essayé de créer un outil d'intelligence artificielle pour aider au recrutement, mais il a montré un parti pris contre les femmes, rapporte Reuters.

Les ingénieurs auraient trouvé q…

Amazon a accidentellement créé un outil de recrutement "sexiste", puis l'a fermé
aplus.com · 2018

La technologie d'apprentissage automatique est de plus en plus courante dans divers secteurs, de la police au recrutement. Mais des rapports ont montré que bon nombre de ces systèmes ont des problèmes de longue date en matière de discrimina…

Amazon abandonne son outil de recrutement basé sur l'IA "sexiste"
news.com.au · 2018

Qu'est-ce que l'intelligence artificielle (IA) ? Nous examinons les progrès de l'IA et de l'automatisation en Australie par rapport au reste du monde et comment la main-d'œuvre australienne peut être affectée par ce mouvement.

L'essor de l'…

Amazon abandonne l'IA sexiste
information-age.com · 2018

Amazon abandonne l'IA sexiste

Ce n'est pas nouveau d'apprendre que l'IA peut être une sorte de fanatique.

Amazon a abandonné un algorithme destiné à devenir un outil de recrutement car trop sexiste.

Avez-vous entendu celui sur ma femme - eh…

Amazon abandonne un outil de recrutement secret basé sur l'IA qui présentait des préjugés contre les femmes
reuters.com · 2018

SAN FRANCISCO (Reuters) - Les spécialistes de l'apprentissage automatique d'Amazon.com Inc (AMZN.O) ont découvert un gros problème : leur nouveau moteur de recrutement n'aimait pas les femmes.

L'équipe avait construit des programmes informa…

L'algorithme de recrutement sexiste d'Amazon reflète un préjugé sexiste plus important
mashable.com · 2018

L'IA peut avoir des tendances sexistes. Mais, désolé, le problème est toujours nous, les humains.

Amazon a récemment abandonné un algorithme de recrutement d'employés en proie à des problèmes, selon un rapport de Reuters. En fin de compte, …

Amazon abandonne l'outil de recrutement d'IA qui "a appris à être sexiste"
afr.com · 2018

Londres | Amazon a abandonné un outil interne "sexiste" qui utilisait l'intelligence artificielle pour trier les candidatures.

Le programme a été créé par une équipe du bureau d'Amazon à Édimbourg en 2014 afin de trier les CV et de sélectio…

L'outil d'embauche d'IA d'Amazon discrimine les femmes.
slate.com · 2018

Signe Amazon, avec mec. David Ryder/Getty Images

Grâce à Amazon, le monde a un nouveau récit édifiant sur les dangers d'apprendre aux ordinateurs à prendre des décisions humaines.

Selon un rapport de Reuters publié mercredi, le géant de la …

Amazon ferme l'outil d'embauche d'IA pour être sexiste
globalcitizen.org · 2018

Pourquoi les citoyens du monde devraient s'en soucier

La discrimination sexuelle sur le lieu de travail empêche les femmes de réaliser leur plein potentiel. L'élimination des inégalités entre les sexes dans la main-d'œuvre augmenterait cons…

channels.theinnovationenterprise.com · 2018

Amazon a décidé de supprimer un algorithme d'apprentissage automatique (ML) qu'il était en train de créer pour aider à automatiser le processus de recrutement, car le modèle continuait de favoriser les candidats masculins, a révélé Reuters.…

Amazon a abandonné l'outil de recrutement basé sur l'IA qui favorisait les hommes pour les emplois techniques
theguardian.com · 2018

Des spécialistes construisaient des programmes informatiques depuis 2014 pour examiner les CV dans le but d'automatiser le processus de recherche

Cet article date de plus de 5 mois

Cet article date de plus de 5 mois

Les spécialistes du mach…

L'outil de recrutement basé sur l'intelligence artificielle d'Amazon abandonné pour être sexiste
alphr.com · 2018

Amazon a été contraint d'abandonner son système de recrutement par IA après qu'il a été découvert qu'il était biaisé à l'encontre des candidates.

L'IA a été développée en 2014 par Amazon comme un moyen de filtrer la plupart des candidats po…

Amazon a viré son IA de lecture de CV pour sexisme
popularmechanics.com · 2018

Les algorithmes sont souvent présentés comme étant supérieurs au jugement humain, éliminant les conjectures dans les décisions allant de la conduite à l'écriture d'un e-mail. Mais ils sont toujours programmés par des humains et formés sur l…

Il s'avère que l'outil d'embauche d'IA d'Amazon discrimine les femmes
siliconrepublic.com · 2018

Amazon a dû abandonner son outil d'embauche d'IA parce qu'il était « sexiste » et discriminatoire à l'égard des candidates, selon un rapport de Reuters.

Les espoirs d'Amazon de créer l'outil de recrutement d'IA parfait ont été anéantis lors…

Amazon ferme un outil secret de recrutement basé sur l'IA qui s'est appris à être sexiste
interestingengineering.com · 2018

Les outils de ressourcement humain de l'intelligence artificielle (IA) font fureur en ce moment et deviennent de plus en plus populaires. Les systèmes peuvent accélérer, simplifier et même réduire le coût du processus d'embauche, devenant a…

Amazon abandonne son outil de recrutement IA sexiste
radionz.co.nz · 2018

Amazon a supprimé son outil d'embauche d'intelligence artificielle après qu'il a été jugé sexiste.

Photo : © 2014, Ken Wolter

Une équipe de spécialistes connaissant bien le projet a déclaré à Reuters qu'ils construisaient des programmes inf…

Amazon a formé une IA de lutte contre le sexisme et de filtrage des CV avec des données d'embauche sexistes, de sorte que le bot est devenu sexiste
boingboing.net · 2018

Amazon a formé une IA de lutte contre le sexisme et de filtrage des CV avec des données d'embauche sexistes, de sorte que le bot est devenu sexiste

Certaines parties de l'apprentissage automatique sont incroyablement ésotériques et difficil…

L'outil sexiste d'Amazon AI supprimé
insights.tmpw.co.uk · 2018

L'IA est donc peut-être l'avenir de l'embauche et du recrutement, mais elle n'en est certainement pas encore là, semble-t-il.

Si vous fondez votre apprentissage sur l'histoire qui a très probablement été biaisée en faveur des hommes, il est…

La technologie est-elle condamnée à refléter le pire en chacun de nous ?
tech.co · 2018

Les gourous de l'IA d'Amazon ont mis au rebut un nouveau moteur de recrutement d'apprentissage automatique plus tôt ce mois-ci. Pourquoi? Il s'est avéré que l'IA derrière elle était sexiste. Qu'est-ce que cela signifie alors que nous nous e…

mansworldindia.com · 2018

Le géant de la technologie a mis en conserve son système de recrutement expérimental criblé de problèmes, selon Reuters.

Amazon, en 2014, a mis en place le système de recrutement en place, dans l'espoir de mécaniser l'ensemble du processus …

L'IA est-elle sexiste ?
wellesley.edu · 2018

Amazon a récemment mis au rebut un outil de recrutement expérimental d'intelligence artificielle (IA) qui s'est avéré biaisé contre les femmes. À ce stade, j'espère que vous pourriez avoir quelques questions, telles que : Qu'est-ce qu'un ou…

msn.com · 2018

Amazon a abandonné un outil interne "sexiste" qui utilisait l'intelligence artificielle pour trier les candidatures.

L'IA a été créée par une équipe du bureau d'Amazon à Édimbourg en 2014 afin de trier automatiquement les CV et de sélection…

Pourquoi l'outil de recrutement IA sexiste d'Amazon est meilleur qu'un humain.
imd.org · 2018

Cependant, le biais apparaît également pour d'autres raisons non liées. Une étude récente sur la façon dont un algorithme diffusait des annonces faisant la promotion d'emplois STEM a montré que les hommes étaient plus susceptibles de voir l…

2018 en revue : 10 échecs de l'IA
medium.com · 2018

En décembre dernier, Synced a compilé son premier récapitulatif des "échecs de l'intelligence artificielle" des gaffes de l'IA de l'année précédente. L'IA a réalisé des progrès remarquables et de nombreux scientifiques rêvent de créer l'alg…

IA sexiste : Amazon abandonne un outil de recrutement qui s'est avéré anti-femmes
rt.com · 2019

C'était censé faciliter la recherche de la bonne personne pour le poste. Cependant, un outil d'IA développé par Amazon pour passer au crible les embauches potentielles a été abandonné par l'entreprise après que les développeurs ont découver…

La ville de New York propose de réglementer les algorithmes utilisés pour l'embauche
arstechnica.com · 2021

En 1964, la loi sur les droits civils interdisait aux humains qui prenaient des décisions d'embauche de faire de la discrimination fondée sur le sexe ou la race. Désormais, les logiciels contribuent souvent à ces décisions d'embauche, en ai…

Les auditeurs testent les algorithmes d'embauche pour détecter les biais, mais il n'y a pas de solution simple
technologyreview.com · 2021

Je suis chez moi en train de jouer à un jeu vidéo sur mon ordinateur. Mon travail consiste à gonfler un ballon à la fois et à gagner le plus d'argent possible. Chaque fois que je clique sur "Pump", le ballon se dilate et je reçois cinq cent…

Les outils d'IA ne parviennent pas à réduire les biais de recrutement - étude
bbc.com · 2022

Les outils de recrutement artificiellement intelligents ne réduisent pas les préjugés et n'améliorent pas la diversité, selon les chercheurs dans une étude.

"Il y a un intérêt croissant pour de nouvelles façons de résoudre des problèmes tel…

Variantes

Une "Variante" est un incident qui partage les mêmes facteurs de causalité, produit des dommages similaires et implique les mêmes systèmes intelligents qu'un incident d'IA connu. Plutôt que d'indexer les variantes comme des incidents entièrement distincts, nous listons les variations d'incidents sous le premier incident similaire soumis à la base de données. Contrairement aux autres types de soumission à la base de données des incidents, les variantes ne sont pas tenues d'avoir des rapports en preuve externes à la base de données des incidents. En savoir plus sur le document de recherche.

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents