Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1086

Incidents associés

Incident 5910 Rapports
Gender Biases in Google Translate

Loading...
Google Traduction pourrait avoir un problème de genre
mashable.com · 2017

Une grande partie de notre vie est déterminée par des algorithmes. De ce que vous voyez sur votre fil d'actualité Facebook, aux livres et bibelots recommandés par Amazon, aux vidéos dérangeantes que YouTube montre à vos enfants, notre attention est systématiquement analysée et vendue au plus offrant.

Ces formules mystérieuses qui nous façonnent, nous guident et nous poussent vers l'idée de quelqu'un d'autre d'un résultat optimal sont opaques par conception. Ce qui, eh bien, le rend peut-être d'autant plus frustrant lorsqu'ils s'avèrent sexistes.

Entrez Google Translate, le service automatisé qui rend une grande partie du Web compréhensible pour tant d'entre nous. Prenant en charge 103 langues, le Babel Fish numérique influence directement notre compréhension des langues et des cultures différentes de la nôtre. En fournissant un outil aussi important, Google a assumé la responsabilité de traduire avec précision le contenu qui transite par ses serveurs.

Mais, ce n'est pas toujours le cas. Ou, peut-être plus précisément, là où il existe une zone grise dans le langage, Google Translate peut tomber dans les mêmes pièges que les humains.

Cela semble avoir été démontré par une série de tweets montrant Google Translate en train de sexuer les professions d'une manière qui ne peut être qualifiée que de problématique.

"Le turc est une langue non sexiste", a tweeté l'écrivain Alex Shams. "Il n'y a pas de 'il' ou 'elle' - tout est juste 'o'. Mais regardez ce qui se passe lorsque Google traduit en anglais."

Les résultats, qu'il a capturés, sont douloureux. "Elle est cuisinière", "il est ingénieur", "il est médecin", "elle est infirmière", "il travaille dur", "elle est paresseuse", etc.

Le turc est une langue non sexiste. Il n'y a pas de "il" ou "elle" - tout est juste "o". Mais regardez ce qui se passe lorsque Google traduit en anglais. Sujet : pic.twitter.com/mIWjP4E6xw — Alex Shams (@seyyedreza) 27 novembre 2017

Et ce n'est pas un problème spécifique turc-anglais. Taika Dahlbom a partagé un résultat similaire lorsqu'elle a traduit le finnois en anglais.

Regardez, comment @Google Traduction fait du #sexisme ! Le #finnois a un pronom à la troisième personne non sexiste. Mais Google décide, si un titre de poste est bon d'aller avec le pronom anglais masculin ou féminin à la troisième personne. Idée : @seyyedreza en #turc pic.twitter.com/jU9Su0JXd5 — Taika Dahlbom (@TaikaDahlbom) 28 novembre 2017

Que se passe-t-il? Un porte-parole de Google a eu la gentillesse de nous renseigner partiellement.

"La traduction fonctionne en apprenant des modèles à partir de plusieurs millions d'exemples de traductions vus sur le Web", a expliqué la personne par e-mail. "Malheureusement, certains de ces modèles peuvent conduire à des traductions dont nous ne sommes pas satisfaits. Nous recherchons activement des moyens d'atténuer ces effets ; ce sont des problèmes non résolus en informatique, et nous nous efforçons de les résoudre."

Cette explication correspond à la compréhension générale qui existe actuellement. Tout revient à ces algorithmes qui pilotent les services basés sur l'apprentissage automatique sur le Web.

Essentiellement, lorsqu'un nombre incalculable de préjugés (sexistes ou autres) existent dans notre littérature et notre langue - des préjugés, comme, que les infirmières sont intrinsèquement des femmes ou que les ingénieurs sont forcément des hommes - ceux-ci peuvent s'infiltrer dans la sortie de Google Translate.

Nous avons déjà vu cela auparavant, pas plus tard qu'en octobre. Ce n'est que le mois dernier qu'un autre service Google - l'API Cloud Natural Language - a été repéré en attribuant des valeurs négatives à des déclarations telles que "Je suis queer" et "Je suis noir".

Même ce n'était pas une observation entièrement nouvelle. Une étude publiée en août dans la revue Science a révélé que "l'application de l'apprentissage automatique au langage humain ordinaire entraîne des biais sémantiques de type humain".

Il semble qu'en essayant de construire un traducteur automatique qui puisse approcher un humain dans ses capacités, Google ait réussi à relever certaines limitations plutôt humaines en cours de route.

Cette histoire a été mise à jour avec une déclaration de Google.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd