Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1085

Incidents associés

Incident 5910 Rapports
Gender Biases in Google Translate

Loading...
La sémantique dérivée automatiquement des corpus linguistiques contient des biais de type humain
arxiv.org · 2016

L'intelligence artificielle et l'apprentissage automatique connaissent une croissance fulgurante. Cependant, on craint que ces technologies ne soient utilisées, intentionnellement ou non, pour perpétuer les préjugés et l'injustice qui caractérisent malheureusement de nombreuses institutions humaines. Ici, nous montrons pour la première fois que des biais sémantiques de type humain résultent de l'application de l'apprentissage automatique standard au langage ordinaire --- le même type de langage auquel les humains sont exposés chaque jour. Nous reproduisons un spectre de biais humains standard tels qu'ils sont exposés par le test d'association implicite et d'autres études psychologiques bien connues. Nous les reproduisons à l'aide d'un modèle d'apprentissage automatique largement utilisé et purement statistique, à savoir l'intégration de mots GloVe, formé sur un corpus de texte provenant du Web. Nos résultats indiquent que le langage lui-même contient des empreintes récupérables et précises de nos préjugés historiques, qu'ils soient moralement neutres envers les insectes ou les fleurs, problématiques envers la race ou le sexe, ou même simplement véridiques, reflétant le {\em statu quo} pour la distribution de genre en matière de carrière ou de prénoms. Ces régularités sont capturées par l'apprentissage automatique avec le reste de la sémantique. En plus de nos découvertes empiriques concernant le langage, nous apportons également de nouvelles méthodes pour évaluer les biais dans le texte, le Word Embedding Association Test (WEAT) et le Word Embedding Factual Association Test (WEFAT). Nos résultats ont des implications non seulement pour l'IA et l'apprentissage automatique, mais aussi pour les domaines de la psychologie, de la sociologie et de l'éthique humaine, car ils soulèvent la possibilité que la simple exposition au langage courant puisse expliquer les biais que nous reproduisons ici.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd