Incidentes Asociados

Todos los anuncios que publicamos se mostraron, a través de uno de los objetivos obligatorios de la campaña publicitaria de Facebook, a los usuarios que Facebook pensó que eran más propensos a hacer clic en el sitio web al que enlazan. Y para todos los anuncios, especificamos solo lo siguiente: que los anuncios deben mostrarse a adultos que vivieron o habían estado recientemente en cualquiera de los países.
Los usuarios de Facebook a quienes se les mostraron nuestros anuncios de trabajo, a quienes Facebook consideró que nuestros anuncios eran relevantes y de interés, fueron decididos completamente por el algoritmo de la empresa.
Nos preocupa que al mostrar anuncios de empleo predominantemente dirigidos a un género, el algoritmo de distribución de anuncios de la empresa no solo esté replicando, sino exacerbando los prejuicios que vemos en la sociedad, reduciendo las oportunidades para los usuarios y frustrando el progreso y la equidad en el lugar de trabajo y en la sociedad en general.
El derecho a no ser discriminado por motivos de sexo fue conquistado con esfuerzo, luchado por él y garantizado por ley por el movimiento por los derechos de las mujeres. Dicha discriminación está expresamente prohibida en el [Convenio Europeo de Derechos Humanos] (https://fra.europa.eu/en/law-reference/european-convention-human-rights-article-14) y además está consagrada en UE ley como en [francés](https://www.elysee. fr/en/french-presidency/constitution-of-4-october-1958) y [holandés](https://www.government.nl/topics/constitution/documents/reports/2019/02/28/the-constitution -del-reino-de-los-paises-bajos).
Pero está claro que no basta con dejar estas leyes en los estatutos. Estos son derechos que debemos seguir aplicando y defendiendo incluso en esta era moderna de algoritmos de las grandes tecnologías, toma de decisiones automatizada e inteligencia artificial.
En Estados Unidos, el Departamento de Justicia ha demandado a Meta por acusaciones de que la forma en que su algoritmo de entrega de anuncios distribuía anuncios de viviendas discriminaba a los usuarios de Facebook de EE. UU. por características que incluían raza, sexo y discapacidad. Meta resolvió ese caso en virtud de un acuerdo para desarrollar un nuevo sistema para abordar las disparidades causadas por sus algoritmos con respecto a los anuncios de vivienda; un sistema que estará sujeto a supervisión judicial. El problema, sin embargo, es que el acuerdo sólo se aplica a los anuncios de viviendas y sólo se aplica a los usuarios en los EE.UU.
En 2021, cuando notamos por primera vez este efecto discriminatorio [en el Reino Unido](https://www.globalwitness.org/en/campaigns/digital-threats/how-facebooks-ad-targeting-may-be-in-breach- of-uk-equality-and-data-protection-laws/), le pedimos a Facebook que explicara los resultados. No lo hicieron. Luego presentamos quejas a los reguladores pidiéndoles que investigaran nuestra sospecha de que el sistema de la plataforma para anunciar trabajos discriminaba por motivos de sexo.
Ahora, con estos nuevos hallazgos, estamos uniendo fuerzas con organizaciones de derechos de las mujeres en Países Bajos y Francia para pedir que la El Instituto Holandés de Derechos Humanos y el Défenseur des droits francés investigan el cumplimiento por parte de Meta de la legislación sobre igualdad e intervienen si se descubre que la empresa infringe estas importantes leyes.
También solicitamos que las autoridades de protección de datos de ambos países revisen el cumplimiento por parte de la empresa de las normas que establecen que la empresa debe procesar datos de forma transparente, legal y justa, de acuerdo con los derechos fundamentales.
Los algoritmos alimentados por las suposiciones de Meta sobre nosotros dictan el contenido que vemos en nuestros feeds de Facebook y afectan la vida de miles de millones de personas todos los días. Hemos descubierto cómo Facebook se está beneficiando de los anuncios que se entregan a los usuarios de manera discriminatoria y de una manera que ni los usuarios ni los anunciantes tienen la oportunidad de comprender, y mucho menos prevenir.
Los reguladores deben abrir la caja negra en el corazón de Meta, investigar y hacer cumplir nuestros derechos para una sociedad más justa.
Cuando se le acercó para hacer comentarios, un portavoz de Meta dijo:
“Hemos aplicado restricciones de orientación a los anunciantes al configurar campañas de empleo, así como anuncios de vivienda y crédito, y ofrecemos transparencia sobre estos anuncios en nuestra biblioteca de anuncios.
No permitimos que los anunciantes orienten estos anuncios según el género. Seguimos trabajando con partes interesadas y expertos del mundo académico, grupos de derechos humanos y otras disciplinas sobre las mejores formas de estudiar y abordar la equidad algorítmica”.
Notas:
- También presentamos anuncios de empleo en India, Irlanda, Sudáfrica y el Reino Unido; los resultados completos están disponibles a pedido.
- Las quejas ante el Defenseur des Droits, la CNIL, la Autoridad Holandesa de Protección de Datos y el Instituto Holandés de Derechos Humanos están disponibles previa solicitud.