Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 42

Incidents associés

Incident 121 Rapport
Common Biases of Vector Embeddings

Loading...
L'homme est-il au programmeur informatique ce que la femme est à la ménagère ? Debiasing Word Embeddings
arxiv.org · 2016

L'application aveugle de l'apprentissage automatique risque d'amplifier les biais présents dans les données. Nous sommes confrontés à un tel danger avec l'incorporation de mots, un cadre populaire pour représenter les données textuelles sous forme de vecteurs qui a été utilisé dans de nombreuses tâches d'apprentissage automatique et de traitement du langage naturel. Nous montrons que même les incorporations de mots formées sur les articles de Google Actualités présentent des stéréotypes de genre féminin/masculin dans une mesure inquiétante. Cela soulève des inquiétudes car leur utilisation généralisée, comme nous le décrivons, tend souvent à amplifier ces biais. Géométriquement, les préjugés sexistes sont d'abord représentés comme étant capturés par une direction dans l'intégration des mots. Deuxièmement, les mots neutres en termes de genre sont présentés comme étant linéairement séparables des mots de définition de genre dans l'incorporation de mots. En utilisant ces propriétés, nous fournissons une méthodologie pour modifier une intégration afin de supprimer les stéréotypes de genre, tels que l'association entre les mots réceptionniste et femme, tout en maintenant les associations souhaitées telles qu'entre les mots reine et femme. Nous définissons des métriques pour quantifier les préjugés sexistes directs et indirects dans les intégrations, et développons des algorithmes pour "débiaiser" l'intégration. À l'aide d'une évaluation par crowd-worker ainsi que de critères de référence standard, nous démontrons empiriquement que nos algorithmes réduisent considérablement les préjugés sexistes dans les incorporations tout en préservant ses propriétés utiles telles que la capacité de regrouper des concepts connexes et de résoudre des tâches d'analogie. Les intégrations résultantes peuvent être utilisées dans des applications sans amplifier les préjugés sexistes.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd