Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2138

Incidentes Asociados

Incidente 1613 Reportes
Facebook's Ad Delivery Reportedly Excluded Audience along Racial and Gender Lines

Loading...
Auditoría de discriminación en algoritmos que entregan anuncios de trabajo
arxiv.org · 2021

Las plataformas publicitarias como Facebook, Google y LinkedIn prometen valor para los anunciantes a través de su publicidad dirigida. Sin embargo, varios estudios han demostrado que la entrega de anuncios en tales plataformas puede estar sesgada por género o raza debido a la optimización algorítmica oculta de las plataformas, incluso cuando los anunciantes no lo solicitan. Sobre la base del trabajo anterior que mide el sesgo en la entrega de anuncios, desarrollamos una nueva metodología para la auditoría de caja negra de algoritmos para la discriminación en la entrega de anuncios de trabajo. Nuestra primera contribución es identificar la distinción entre el sesgo en la publicación de anuncios debido a categorías protegidas como el género o la raza, y el sesgo debido a las diferencias de calificación entre las personas del público objetivo. Esta distinción es importante en la ley de EE. UU., donde los anuncios pueden orientarse en función de las calificaciones, pero no de las categorías protegidas. En segundo lugar, desarrollamos una metodología de auditoría que distingue entre sesgos explicables por diferencias en las calificaciones de otros factores, como la optimización de la plataforma publicitaria para la participación o el entrenamiento de sus algoritmos en datos sesgados. Nuestro método controla la calificación del trabajo al comparar la entrega de anuncios de dos anuncios simultáneos para trabajos similares, pero para un par de empresas con diferentes distribuciones de género de facto de los empleados. Describimos las cuidadosas pruebas estadísticas que establecen evidencia de sesgo de no calificación en los resultados. En tercer lugar, aplicamos nuestra metodología propuesta a dos plataformas destacadas de publicidad dirigida para anuncios de trabajo: Facebook y LinkedIn. Confirmamos el sesgo por género en la entrega de anuncios en Facebook y demostramos que no puede justificarse por diferencias en las calificaciones. No encontramos sesgo en la entrega de anuncios en LinkedIn. Finalmente, sugerimos mejoras en las prácticas de las plataformas publicitarias que podrían hacer que la auditoría externa de sus algoritmos en interés del público sea más factible y precisa.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd