Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2138

Incidents associés

Incident 1613 Rapports
Facebook's Ad Delivery Reportedly Excluded Audience along Racial and Gender Lines

Loading...
Audit de la discrimination dans les algorithmes de diffusion d'offres d'emploi
arxiv.org · 2021

Les plateformes publicitaires telles que Facebook, Google et LinkedIn promettent de la valeur aux annonceurs grâce à leur publicité ciblée. Cependant, plusieurs études ont montré que la diffusion d'annonces sur ces plateformes peut être faussée par le sexe ou la race en raison d'une optimisation algorithmique cachée par les plateformes, même lorsqu'elle n'est pas demandée par les annonceurs. En nous appuyant sur des travaux antérieurs mesurant le biais dans la diffusion des annonces, nous développons une nouvelle méthodologie pour l'audit de la boîte noire des algorithmes de discrimination dans la diffusion des offres d'emploi. Notre première contribution est d'identifier la distinction entre le biais dans la diffusion des publicités dû à des catégories protégées telles que le sexe ou la race, du biais dû aux différences de qualification parmi les personnes de l'audience ciblée. Cette distinction est importante dans la législation américaine, où les publicités peuvent être ciblées en fonction des qualifications, mais pas des catégories protégées. Deuxièmement, nous développons une méthodologie d'audit qui distingue le biais explicable par des différences de qualifications d'autres facteurs, tels que l'optimisation de la plateforme publicitaire pour l'engagement ou la formation de ses algorithmes sur des données biaisées. Notre méthode contrôle la qualification de l'emploi en comparant la diffusion d'annonces de deux annonces simultanées pour des emplois similaires, mais pour une paire d'entreprises avec des répartitions de facto différentes selon le sexe des employés. Nous décrivons les tests statistiques minutieux qui établissent la preuve du biais de non-qualification dans les résultats. Troisièmement, nous appliquons notre méthodologie proposée à deux plateformes publicitaires ciblées importantes pour les offres d'emploi : Facebook et LinkedIn. Nous confirmons le biais selon le sexe dans la diffusion des publicités sur Facebook et montrons qu'il ne peut être justifié par des différences de qualifications. Nous ne parvenons pas à trouver de biais dans la diffusion des publicités sur LinkedIn. Enfin, nous suggérons des améliorations aux pratiques des plateformes publicitaires qui pourraient rendre l'audit externe de leurs algorithmes dans l'intérêt public plus faisable et plus précis.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd