Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1088

Incidents associés

Incident 5910 Rapports
Gender Biases in Google Translate

Loading...
Évaluation des préjugés sexistes dans la traduction automatique – Étude de cas avec Google Traduction
researchgate.net · 2018

Récemment, il y a eu une préoccupation croissante concernant les biais de la machine, où les modèles statistiques entraînés se développent pour refléter des asymétries sociétales controversées, telles que les préjugés sexistes ou raciaux. Il a récemment été suggéré qu'un nombre important d'outils d'IA étaient préjudiciables à certaines minorités, avec des rapports de prédicteurs de comportements criminels racistes, l'Iphone X ne parvenant pas à faire la différence entre deux personnes asiatiques et les photos de Google classant à tort les Noirs comme des gorilles. Bien qu'une étude systématique de ces biais puisse être difficile, nous pensons que les outils de traduction automatique peuvent être exploités à travers des langages non sexistes pour ouvrir une fenêtre sur le phénomène des préjugés sexistes dans l'IA. Dans cet article, nous commençons par une liste complète de postes du Bureau of Labor Statistics (BLS) des États-Unis et l'avons utilisée pour construire des phrases dans des constructions telles que "Il / Elle est un ingénieur" dans 12 langues neutres telles que le hongrois, Chinois, Yoruba et plusieurs autres. Nous traduisons ces phrases en anglais à l'aide de l'API Google Translate et collectons des statistiques sur la fréquence des pronoms féminins, masculins et non sexistes dans la sortie traduite. Nous montrons que GT présente une forte tendance aux défauts masculins, en particulier pour les domaines liés à une répartition déséquilibrée entre les sexes tels que les emplois STEM. Nous avons comparé ces statistiques aux données du BLS sur la fréquence de la participation des femmes à chaque poste, montrant que GT ne parvient pas à reproduire une distribution réelle des travailleuses. Nous apportons des preuves expérimentales que même si l'on ne s'attend pas en principe à une répartition pronominale par sexe de 50:50, GT donne des défauts masculins beaucoup plus fréquemment que ce à quoi on pourrait s'attendre à partir des seules données démographiques. Nous espérons que ce travail déclenchera un débat sur la nécessité d'augmenter les outils de traduction statistique actuels avec des techniques de débiaisation qui peuvent déjà être trouvées dans la littérature scientifique.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd