Journal des citations pour l'incident 59

Description: A Cornell University study in 2016 highlighted Google Translate's pattern of assigning gender to occupations in a way showing an implicit gender bias against women.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique
Présumé : Un système d'IA développé et mis en œuvre par Google, endommagé Women.

Statistiques d'incidents

ID
59
Nombre de rapports
10
Date de l'incident
2017-04-13
Editeurs
Sean McGregor

Classifications de taxonomie CSETv0

Détails de la taxonomie

Full Description

A Cornell University study in 2016 highlighted Google Translate's pattern of assigning gender to occupations in a way showing an implicit gender bias against women. When translating from non-gendered languages (ex. Turkish, Finnish), Google Translate added gender to the phrases being translated. "Historian" "Doctor" "President" "Engineer" and "Soldier" were assigned male gender pronouns while "Nurse" "Teacher" and "Shop Assistant" were assigned female gender pronouns.

Short Description

A Cornell University study in 2016 highlighted Google Translate's pattern of assigning gender to occupations in a way showing an implicit gender bias against women.

Severity

Negligible

Harm Distribution Basis

Sex

Harm Type

Harm to social or political systems

AI System Description

Google Translate, a software allowing for translations between many languages

System Developer

Google

Sector of Deployment

Information and communication

Relevant AI functions

Perception, Cognition, Action

AI Techniques

Google Translate

AI Applications

language API, language translation

Named Entities

Google Translate, Google

Technology Purveyor

Google

Beginning Date

2016-01-01T00:00:00.000Z

Ending Date

2016-01-01T00:00:00.000Z

Near Miss

Harm caused

Intent

Unclear

Lives Lost

No

Data Inputs

User entered translation requests

arxiv.org · 2016

L'intelligence artificielle et l'apprentissage automatique connaissent une croissance fulgurante. Cependant, on craint que ces technologies ne soient utilisées, intentionnellement ou non, pour perpétuer les préjugés et l'injustice qui carac…

Même l'intelligence artificielle peut acquérir des préjugés contre la race et le sexe
sciencemag.org · 2017

Même l'intelligence artificielle peut acquérir des préjugés contre la race et le sexe

L'une des grandes promesses de l'intelligence artificielle (IA) est un monde exempt de petits préjugés humains. L'embauche par algorithme donnerait aux ho…

Les programmes d'IA présentent des préjugés raciaux et sexistes, révèle une étude
theguardian.com · 2017

Les algorithmes d'apprentissage automatique détectent des préjugés raciaux et sexistes profondément enracinés cachés dans les modèles d'utilisation de la langue, selon les scientifiques

Il a été démontré qu'un outil d'intelligence artificie…

princeton.edu · 2017

Dans les débats sur l'avenir de l'intelligence artificielle, de nombreux experts pensent que ces systèmes basés sur des machines sont froidement logiques et objectivement rationnels. Mais dans une nouvelle étude, des chercheurs de l'Univers…

Le biais sexiste de Google Translate associe "il" à "travailleur" et "elle" à paresseux, et d'autres exemples
qz.com · 2017

Dans la langue turque, il existe un pronom, "o", qui couvre tous les types de troisième personne du singulier. Que ce soit un il, une elle ou un ça, c'est un "o". Ce n'est pas le cas en anglais. Ainsi, lorsque Google Translate passe du turc…

Google Traduction pourrait avoir un problème de genre
mashable.com · 2017

Une grande partie de notre vie est déterminée par des algorithmes. De ce que vous voyez sur votre fil d'actualité Facebook, aux livres et bibelots recommandés par Amazon, aux vidéos dérangeantes que YouTube montre à vos enfants, notre atten…

L'algorithme qui a aidé Google Translate à devenir sexiste
forbes.com · 2018

Image via Twitter

Les parents ne connaissent que trop bien le défi particulier d'élever des enfants : leur apprendre à faire ce que nous disons, pas ce que nous faisons.

Un défi similaire a frappé l'intelligence artificielle.

Alors que de p…

Évaluation des préjugés sexistes dans la traduction automatique – Étude de cas avec Google Traduction
researchgate.net · 2018

Récemment, il y a eu une préoccupation croissante concernant les biais de la machine, où les modèles statistiques entraînés se développent pour refléter des asymétries sociétales controversées, telles que les préjugés sexistes ou raciaux. I…

Google Translate propose désormais des traductions féminines et masculines
venturebeat.com · 2018

Google s'efforce de réduire les préjugés sexistes perçus dans Google Translate, a-t-il annoncé aujourd'hui. À partir de cette semaine, les utilisateurs qui traduisent des mots et des phrases dans les langues prises en charge obtiendront des…

Les historiennes et les infirmiers n'existent pas, dit Google Translate à ses utilisateurs européens
algorithmwatch.org · 2020

Une expérience montre que Google Traduction modifie systématiquement le genre des traductions lorsqu'elles ne correspondent pas aux stéréotypes. C'est à cause de l'anglais, dit Google.

Si vous deviez lire une histoire sur des historiens mas…

Variantes

Une "Variante" est un incident qui partage les mêmes facteurs de causalité, produit des dommages similaires et implique les mêmes systèmes intelligents qu'un incident d'IA connu. Plutôt que d'indexer les variantes comme des incidents entièrement distincts, nous listons les variations d'incidents sous le premier incident similaire soumis à la base de données. Contrairement aux autres types de soumission à la base de données des incidents, les variantes ne sont pas tenues d'avoir des rapports en preuve externes à la base de données des incidents. En savoir plus sur le document de recherche.