Incidentes Asociados

Facebook no pudo detectar tres cuartas partes de los anuncios de prueba que llamaban explícitamente a la violencia y al asesinato de los trabajadores electorales de EE. UU. antes de las elecciones intermedias muy disputadas a principios de este mes, según una nueva investigación realizada por Global Witness y la Escuela de Ingeniería Tandon de la Universidad de Nueva York Cybersecurity para la Democracia (C4D).
La [investigación](https://www.globalwitness.org/en/campaigns/digital-threats/were-going-to-kill-you-all-facebook-fails-to-detect-death-threats-against-election -workers-in-the-us-while-youtube-and-tiktok-succeed/) probó la capacidad de Facebook, TikTok y YouTube para detectar anuncios que contenían amenazas de muerte contra trabajadores electorales y reveló resultados marcadamente contrastantes para los gigantes de las redes sociales: YouTube y TikTok suspendió nuestras cuentas por violar sus políticas, mientras que Facebook aceptó el 75% -15 de los 20- anuncios con amenazas de muerte que les enviamos para su publicación.
Los anuncios contenían diez ejemplos de la vida real de amenazas de muerte emitidas contra trabajadores electorales e incluían declaraciones de que se mataría, ahorcaría o ejecutaría a personas, y que se abusaría de los niños. Probamos las versiones en inglés y español de estos anuncios y los presentamos el día de las elecciones intermedias o el día anterior. Global Witness y C4D no están publicando estos anuncios debido al discurso violento que contienen [1].
Una vez que Facebook aprobó la publicación de los anuncios, Global Witness y C4D eliminaron los anuncios antes de que se mostraran en la plataforma para evitar la difusión de expresiones de odio y violencia.
Esta investigación llega inmediatamente después de un [informe reciente de Global Witness y](https://www.globalwitness.org/en/campaigns/digital-threats/tiktok-and-facebook-fail-detect-election-disinformation-us -while-youtube-succeeds/) C4D que mostró que Facebook tampoco detectó por completo los anuncios de desinformación electoral antes de las elecciones parciales, incluidos los anuncios que proporcionaron la fecha de elección incorrecta y los anuncios que intentaron deslegitimar el proceso electoral. Esa investigación probó de manera similar las capacidades de TikTok y YouTube para detectar la desinformación electoral. A diferencia de esta investigación, TikTok aprobó el 90% de los anuncios de desinformación electoral.
“Es increíblemente alarmante que Facebook haya aprobado anuncios que amenazan a los trabajadores electorales con violencia, linchamientos y asesinatos, en medio de crecientes amenazas reales contra estos trabajadores”, dijo Rosie Sharpe, investigadora de Global Witness. “Este tipo de actividad amenaza la seguridad de nuestras elecciones. Sin embargo, lo que Facebook dice que hace para mantener segura su plataforma apenas se parece a lo que realmente hace. La incapacidad de Facebook para detectar el discurso de odio y la desinformación electoral, a pesar de sus compromisos públicos, es un problema global, como lo ha demostrado Global Witness este año en investigaciones en [Brasil] (https://www.globalwitness.org/en/press-releases/ después de las repetidas advertencias-youtube-y-facebook-continúan-aprobando-la-desinformación-descarada-sus-plataformas-delante-de-la-ejecución-presidencial-brasileña/), [Etiopía](https://www.globalwitness. org/en/campaigns/digital-threats/ethiopia-hate-speech/), [Kenya](https://www.globalwitness.org/en/press-releases/facebook-approves-ads-calling-ethnic- violence-lead-tense-kenyan-election/), Myanmar and Noruega."
_“El hecho de que Facebook no bloquee los anuncios que abogan por la violencia contra los trabajadores electorales pone en peligro la seguridad de estos trabajadores. Es inquietante que Facebook permita a los anunciantes sorprendidos con amenazas de violencia seguir comprando anuncios. Facebook necesita mejorar sus métodos de detección y prohibir los anunciantes que promueven la violencia”, dijo Damon McCoy, codirector de C4D.
Global Witness se acercó al propietario de Facebook, Meta, para comentar sobre estos hallazgos y un portavoz respondió: “Esta es una pequeña muestra de anuncios que no son representativos de lo que la gente ve en nuestras plataformas. El contenido que incita a la violencia contra los trabajadores electorales o cualquier otra persona no tiene cabida en nuestras aplicaciones y los informes recientes han dejado en claro que la capacidad de Meta para abordar estos problemas supera efectivamente la de otras plataformas. Seguimos comprometidos a continuar mejorando nuestros sistemas”.
Le preguntamos a Meta por la evidencia que respalda la afirmación de que la plataforma es mejor para lidiar con la incitación a la violencia que otras plataformas. Meta proporcionó citas publicadas en los medios que señalan que Meta tiene más recursos dedicados que otras plataformas y que lo hace mejor con moderación que algunas plataformas de la derecha alternativa. Si bien estas afirmaciones pueden ser fácticas, no constituyen evidencia de que Meta sea mejor para detectar la incitación a la violencia que otras plataformas principales. Además, no se debe tolerar el fracaso antes de una elección importante, cuando las tensiones y el potencial de daño son altos.
Global Witness y C4D hacen un llamado a las plataformas de redes sociales para que doten de recursos adecuados la moderación de su contenido en todo el mundo para garantizar que sus productos sean seguros de usar. Vea la lista completa de recomendaciones que Facebook debe implementar con urgencia [aquí](https://www.globalwitness.org/en/campaigns/digital-threats/were-going-to-kill-you-all-facebook-fails-to- detectar-amenazas-de-muerte-contra-los-trabajadores-electorales-en-los-estados-unidos-mientras-youtube-y-tiktok-tienen éxito/).