Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1087

Incidents associés

Incident 5910 Rapports
Gender Biases in Google Translate

Loading...
L'algorithme qui a aidé Google Translate à devenir sexiste
forbes.com · 2018

Image via Twitter

Les parents ne connaissent que trop bien le défi particulier d'élever des enfants : leur apprendre à faire ce que nous disons, pas ce que nous faisons.

Un défi similaire a frappé l'intelligence artificielle.

Alors que de plus en plus d'applications et de logiciels utilisent l'IA pour automatiser les tâches, un modèle populaire basé sur des données, appelé « intégration de mots », a également repris des préjugés sociaux bien ancrés.

Le résultat est que des services comme la traduction linguistique recrachent ces préjugés de manière subtile mais inquiétante.

Plus tôt cette année, par exemple, des exemples de préjugés sexistes ont commencé à apparaître sur les réseaux sociaux avec Google Translate.

Essayez de traduire des termes en anglais depuis le turc, qui a des pronoms non sexistes, et une phrase comme o bir muhendis devient ingénieur, tandis que o bir hemsire se traduit par elle est infirmière.

Le propre service de traduction de Microsoft sur Bing a un problème similaire, grâce à l'utilisation du genre dans la grammaire - pensez le et la en français, ou der et die en allemand.

Quand Bing traduit « la table est molle » en allemand, il propose le féminin die Tabelle, qui fait référence à une table de chiffres.

"Ces associations de genre sont projetées sur des objets", explique Kate McCurdy, linguiste informatique senior de la startup d'apprentissage des langues Babbel à Berlin, en Allemagne, qui a découvert le biais de Bing.

« Les objets qui se trouvent être grammaticalement masculins reçoivent des propriétés masculines. C'est apprendre à prendre les stéréotypes de genre et à les projeter dans le monde entier des noms.

En raison de l'intégration de mots, une méthode populaire d'apprentissage automatique, les algorithmes de traduction fonctionnent sur ces biais, tout comme d'autres services comme la recherche Google, ainsi que les recommandations Netflix et Spotify.

"C'est une approche qui a pris son envol et qui est extrêmement répandue dans l'industrie, et c'est pourquoi il est si important d'interroger l'hypothèse sous-jacente", déclare McCurdy.

L'incorporation de mots fonctionne en liant des mots à un vecteur de nombres, que les algorithmes peuvent utiliser pour calculer la probabilité. En regardant quels mots ont tendance à être autour d'autres mots, comme "ingénieur", le modèle peut être utilisé pour déterminer quel autre mot convient le mieux, comme "il".

Le prix de l'apprentissage à partir de tonnes de textes et de dialogues existants est que ces modèles captent le déséquilibre réel entre les sexes en matière d'emplois ou d'opportunités.

Une étude de 2016 qui a formé des modèles d'intégration de mots sur des articles sur Google a montré des stéréotypes de genre "dans une mesure inquiétante", selon ses chercheurs.

McCurdy dit qu'il n'y a rien de nécessairement faux avec le modèle d'intégration de mots lui-même, mais il a besoin de conseils et d'une surveillance humains.

"La valeur par défaut est maintenant de créer ces applications et de les diffuser dans la nature et de combattre les incendies lorsqu'elles sortent", ajoute-t-elle. "Mais si nous étions plus délibérés à ce sujet et prenions les choses plus au sérieux, nous ferions plus de travail pour intégrer une perspective plus critique."

Les entreprises qui utilisent le modèle d'intégration de mots pour créer des services destinés aux consommateurs ont également besoin de programmeurs plus diversifiés qui sont plus susceptibles de remarquer le risque de biais avant qu'ils n'apparaissent.

"Si nous voulons vraiment que l'intelligence artificielle prenne des décisions qui n'aboutissent pas à des préjugés que nous ne voulons pas renforcer, nous devons avoir des personnes plus diversifiées et critiques qui examinent cela plus tôt dans le processus."

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd