Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2139

Incidentes Asociados

Incidente 1613 Reportes
Facebook's Ad Delivery Reportedly Excluded Audience along Racial and Gender Lines

Loading...
Los algoritmos publicitarios de Facebook aún excluyen a las mujeres de ver trabajos
technologyreview.com · 2021

Facebook está reteniendo ciertos anuncios de trabajo de mujeres debido a su género, según la última auditoría de su servicio de anuncios.

La auditoría, realizada por investigadores independientes de la Universidad del Sur de California (USC), revela que el sistema de entrega de anuncios de Facebook muestra diferentes anuncios de trabajo para mujeres y hombres. a pesar de que los trabajos requieren las mismas calificaciones. Esto se considera discriminación basada en el sexo según la ley de igualdad de oportunidades en el empleo de EE. UU., que prohíbe la orientación de anuncios en función de características protegidas. Los hallazgos se producen a pesar de años de defensa y demandas, y después de las promesas de Facebook de revisar la forma en que entrega los anuncios.

Los investigadores se registraron como anunciantes en Facebook y compraron pares de anuncios para trabajos con calificaciones idénticas pero con diferentes datos demográficos del mundo real. Anunciaron dos trabajos de repartidor, por ejemplo: uno para Domino's (entrega de pizza) y otro para Instacart (entrega de comestibles). Actualmente hay más hombres que mujeres que conducen para Domino's y viceversa para Instacart.

Aunque no se especificó una audiencia en función de la información demográfica, [una función que Facebook deshabilitó](https://www.technologyreview.com/2019/03/20/1225/facebook-is-going-to-stop-letting-advertisers -objetivo-por-raza-género-o-edad/) para anuncios de vivienda, crédito y trabajo en marzo de 2019 después de resolver varias demandas, los algoritmos aún mostraban los anuncios a grupos demográficos estadísticamente distintos. El anuncio de Domino's se mostró a más hombres que mujeres, y el anuncio de Instacart se mostró a más mujeres que hombres.

Los investigadores encontraron el mismo patrón con los anuncios de otros dos pares de trabajos: ingenieros de software para Nvidia (masculino sesgado) y Netflix (femenino sesgado), y asociados de ventas de automóviles (masculino sesgado) y joyería (femenino sesgado).

Los hallazgos sugieren que los algoritmos de Facebook de alguna manera se están dando cuenta de la distribución demográfica actual de estos trabajos, que a menudo difieren por razones históricas. (Los investigadores no pudieron discernir por qué, porque Facebook no dice cómo funciona su sistema de entrega de anuncios). profesora asistente en la USC, coautora del estudio con su colega John Heidemann y su asesor de doctorado Basileal Imana.

El estudio proporciona la evidencia más reciente de que Facebook no ha resuelto sus problemas de discriminación publicitaria desde que ProPublica [sacó a la luz el problema por primera vez en octubre de 2016] (https://www.propublica.org/article/facebook-lets-advertisers-exclude-users -por raza). En ese momento, ProPublica reveló que la plataforma permitía a los anunciantes de oportunidades laborales y de vivienda excluir a ciertas audiencias caracterizadas por rasgos como el género y la raza. Dichos grupos reciben protección especial bajo la ley estadounidense, lo que hace que esta práctica sea ilegal. Facebook tomó dos años y medio y varias escaramuzas legales para [eliminar finalmente esa función](https://www.aclu.org/blog/womens-rights/womens-rights-workplace/facebook-settles-civil-rights- caso-fabricación-barrido).

Pero unos meses más tarde, el Departamento de Vivienda y Desarrollo Urbano de EE. UU. (HUD) presentó una nueva demanda, alegando que los algoritmos de entrega de anuncios de Facebook todavía estaban excluyendo audiencias para anuncios de viviendas sin que el anunciante especificara la exclusión. Un equipo de investigadores independientes, incluido Korolova, dirigido por Muhammad Ali y Piotr Sapieżyński de la Universidad Northeastern, [corroboró esas acusaciones una semana después] (https://www.technologyreview.com/2019/04/05/1175/facebook-algorithm-discriminates -ai-sesgo/). Descubrieron, por ejemplo, que las casas en venta se mostraban con mayor frecuencia a usuarios blancos y las casas en alquiler se mostraban con mayor frecuencia a usuarios minoritarios.

Korolova quería revisar el tema con su última auditoría porque la carga de la prueba para la discriminación laboral es mayor que para la discriminación en la vivienda. Si bien cualquier sesgo en la visualización de anuncios basados en características protegidas es ilegal en el caso de la vivienda, la ley laboral de EE. UU. lo considera justificable si el sesgo se debe a diferencias legítimas de calificación. La nueva metodología controla por este factor.

“El diseño del experimento es muy limpio”, dice Sapieżyński, que no participó en el último estudio. Si bien algunos podrían argumentar que los asociados de ventas de automóviles y joyas tienen calificaciones diferentes, dice, las diferencias entre repartir pizza y repartir comestibles son insignificantes. “Estas diferencias de género no pueden explicarse por las diferencias de género en las calificaciones o la falta de calificaciones”, agrega. “Facebook ya no puede decir [esto es] defendible por ley”.

El lanzamiento de esta auditoría se produce en medio de un mayor escrutinio del trabajo de sesgo de IA de Facebook. En marzo, MIT Technology Review publicó los resultados de una investigación de nueve meses sobre la inteligencia artificial responsable de la empresa. equipo, que descubrió que el equipo, formado por primera vez en 2018, se había negado a trabajar en problemas como la amplificación algorítmica de la información errónea y la polarización debido a su enfoque intermitente en el sesgo de la IA. La empresa publicó una publicación de blog poco después, enfatizando la importancia de ese trabajo y diciendo en particular que Facebook busca “comprender mejor los posibles errores que pueden afectar nuestro sistema de anuncios, como parte de nuestro trabajo continuo y más amplio para estudiar la justicia algorítmica en los anuncios”.

"Hemos tomado medidas significativas para abordar los problemas de discriminación en los anuncios y hoy tenemos equipos que trabajan en la equidad de los anuncios", dijo el portavoz de Facebook, Joe Osborn, en un comunicado. "Nuestro sistema tiene en cuenta muchas señales para tratar de mostrar a las personas los anuncios que más les interesen, pero entendemos las preocupaciones planteadas en el informe... Seguimos trabajando en estrecha colaboración con la comunidad de derechos civiles, los reguladores y los académicos. sobre estos asuntos importantes.”

Sin embargo, a pesar de estas afirmaciones, Korolova dice que no encontró cambios notables entre la auditoría de 2019 y esta en la forma en que funcionan los algoritmos de entrega de anuncios de Facebook. “Desde esa perspectiva, en realidad es realmente decepcionante, porque les informamos sobre esto hace dos años”, dice ella. También se ofreció a trabajar con Facebook para abordar estos problemas, dice. "No hemos recibido respuesta. Al menos para mí, no se han comunicado".

En entrevistas anteriores, la empresa dijo que no podía discutir los detalles de cómo estaba trabajando para mitigar la discriminación algorítmica en su servicio de publicidad debido a los litigios en curso. El equipo de anuncios dijo que su progreso se ha visto limitado por desafíos técnicos.

Sapieżyński, que ya ha realizado tres auditorías de la plataforma, dice que esto no tiene nada que ver con el problema. “Facebook todavía tiene que reconocer que hay un problema”, dice. Mientras el equipo resuelve los problemas técnicos, agrega, también hay una solución provisional fácil: podría desactivar la orientación algorítmica de anuncios específicamente para anuncios de vivienda, empleo y préstamos sin afectar el resto de su servicio. En realidad, es solo una cuestión de voluntad política, dice.

Christo Wilson, otro investigador de Northeastern que estudia el sesgo algorítmico pero que no participó en la investigación de Korolova o Sapieżyński, está de acuerdo: "¿Cuántas veces los investigadores y periodistas necesitan encontrar estos problemas antes de que aceptemos que todo el sistema de orientación de anuncios está en bancarrota? ?”

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd