Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2395

Incidentes Asociados

Incidente 4193 Reportes
Facebook's Automated Moderation Allowed Ads Threatening Election Workers to be Posted

Loading...
“Los vamos a matar a todos”: Aprobadas en Facebook amenazas de muerte contra trabajadores electorales de EE.UU.
globalwitness.org · 2022

Una investigación realizada por Global Witness y el equipo de Ciberseguridad para la Democracia (C4D) de la NYU analizó la capacidad de Facebook, TikTok y YouTube para detectar y eliminar las amenazas de muerte contra los trabajadores electorales en el período previo a las elecciones intermedias de EE. UU.

La investigación reveló resultados marcadamente contrastantes para los gigantes de las redes sociales: YouTube y TikTok suspendieron nuestras cuentas por violar sus políticas, mientras que Facebook aceptó 15 de los 20 anuncios que contenían amenazas de muerte que les enviamos para su publicación.

nuestra investigacion

Probamos la capacidad de Facebook de Meta, YouTube de Google y TikTok para hacer cumplir sus propias políticas sobre contenido dañino. Hicimos esto identificando 10 de los peores ejemplos de amenazas de muerte emitidas contra trabajadores electorales en los EE. UU. y luego enviándolos a las tres plataformas en forma de anuncios y registrando si las plataformas los aceptaron para su publicación o no.

Todas las amenazas de muerte fueron ejemplos reales de amenazas anteriores contra trabajadores electorales que habían sido reportadas en los medios. Incluían declaraciones de que las personas serían asesinadas, ahorcadas o ejecutadas, y que los niños serían abusados.

Eliminamos las blasfemias de las amenazas de muerte y corregimos los errores gramaticales, ya que en una investigación anterior, Facebook inicialmente rechazó los anuncios que contenían discursos de odio por estos motivos y luego los aceptó para su publicación una vez que los editamos.

Enviamos las amenazas de muerte en forma de anuncios, ya que esto nos permite programarlas en el futuro y, lo que es más importante, eliminarlas antes de que se publiquen, mientras las plataformas aún las revisan y se someten a sus procesos de moderación de contenido.

Las amenazas de muerte que usamos como fuentes estaban todas originalmente en inglés; los enviamos a las plataformas tanto en inglés como en español. Los anuncios consistían en una imagen de un trabajador electoral estadounidense con la amenaza de muerte escrita en un texto claramente legible en la parte superior. Todas las amenazas de muerte fueron escalofriantemente claras en su idioma; ninguno estaba codificado o era difícil de interpretar. Todos los anuncios violan las políticas publicitarias de Meta, TikTok y Google.

Enviamos los anuncios el día de las elecciones intermedias de EE. UU. de 2022 o el día anterior.

Nuestros protocolos experimentales fueron revisados y considerados no como investigación con sujetos humanos por la Junta de Revisión Institucional de la Universidad de Nueva York, que revisa la ética de los experimentos que involucran sujetos de investigación humanos.

Nuestros hallazgos

Después de que enviamos los anuncios que contenían amenazas de muerte, TikTok y YouTube suspendieron nuestras cuentas por violar sus políticas.

Facebook, sin embargo, se comportó de manera muy diferente. La plataforma aprobó la publicación de nueve de las diez amenazas de muerte en inglés y seis de las diez amenazas de muerte en español. Nuestra cuenta no se cerró a pesar de que se identificaron algunos anuncios que violaban sus políticas.

Global Witness se acercó al propietario de Facebook, Meta, para comentar sobre estos hallazgos y un portavoz respondió: “Esta es una pequeña muestra de anuncios que no son representativos de lo que la gente ve en nuestras plataformas. El contenido que incita a la violencia contra los trabajadores electorales o cualquier otra persona no tiene cabida en nuestras aplicaciones y los informes recientes han dejado en claro que la capacidad de Meta para abordar estos problemas supera efectivamente la de otras plataformas. Seguimos comprometidos a continuar mejorando nuestros sistemas”.

Le preguntamos a Meta por la evidencia que respalda la afirmación de que la plataforma es mejor para lidiar con la incitación a la violencia que otras plataformas. Meta proporcionó citas de expertos en tecnología publicadas en los medios que señalan que Meta tiene más recursos dedicados que otras plataformas y que funciona mejor con moderación que algunas plataformas de la derecha alternativa.

Si bien estas afirmaciones pueden ser fácticas, no constituyen evidencia de que Meta sea mejor para detectar la incitación a la violencia que otras plataformas principales. Además, no se debe tolerar el fracaso antes de una elección importante, cuando las tensiones y el potencial de daño son altos.

Hemos llevado a cabo investigaciones similares sobre la capacidad de las plataformas para detectar contenido dañino en Brasil y EE. UU. En ambos casos analizamos la desinformación electoral flagrante.

En Brasil, encontramos que tanto Facebook y [YouTube](https:/ /www.globalwitness.org/en/press-releases/after-repeated-warnings-youtube-and-facebook-continue-approve-blatant-disinformation-their-platforms-ahead-tense-brazilian-presidencial-run/) aceptaron todos de la desinformación electoral que les enviamos (y que Facebook siguió aceptando algunos de los anuncios cuando los enviamos por segunda vez). No probamos TikTok.

En los EE. UU., nosotros encontrado que TikTok aceptó toda la desinformación electoral que enviamos a la plataforma, Facebook aceptó 20-50% (dependiendo de el día y el idioma) y, como encontramos aquí, YouTube suspendió nuestra cuenta.

lo que necesita cambiar

Las plataformas deben tratar a todos los usuarios, sin importar en qué parte del mundo se encuentren, por igual.  Nos alienta ver que YouTube ha detectado con éxito la desinformación electoral y las amenazas de muerte a los trabajadores electorales en EE. UU., pero nos desalienta ver que no pudo detectar la desinformación electoral en Brasil.

Las plataformas deben demostrar que pueden hacer cumplir sus propias políticas. En particular, el historial de Facebook en cuanto a su capacidad para detectar y eliminar los peores tipos de contenido peligroso es terriblemente malo: sus políticas pueden parecer razonables en papel, pero no tienen sentido a menos que se hagan cumplir.

El hecho de que YouTube y TikTok lograran detectar las amenazas de muerte y suspender nuestra cuenta mientras que Facebook permitió que se publicaran la mayoría de los anuncios demuestra que lo que estamos pidiendo es técnicamente posible.

Si bien la UE está tomando la iniciativa a nivel mundial para regular las empresas de Big Tech y obligar a una supervisión significativa, las plataformas también deberían actuar por voluntad propia para proteger a sus usuarios de manera plena e igualitaria.

Hacemos un llamado a Meta para:

  • Aumentar urgentemente las capacidades de moderación de contenido y los sistemas de integridad implementados para mitigar el riesgo en torno a las elecciones.
  • Recurrir adecuadamente a la moderación de contenido en todos los países en los que operan en todo el mundo, lo que incluye pagar a los moderadores de contenido un salario justo, permitirles sindicalizarse y brindar apoyo psicológico.
  • Evaluar, mitigar y publicar de manera rutinaria los riesgos que sus servicios tienen sobre los derechos humanos de las personas y otros daños a nivel social en todos los países en los que operan.
  • Publicar información sobre los pasos que han tomado en cada país y para cada idioma para garantizar la seguridad de las elecciones.
  • Incluir detalles completos de todos los anuncios (incluido el público objetivo previsto, el público real, el gasto publicitario y el comprador de anuncios) en su biblioteca de anuncios.
  • Permitir auditorías de terceros independientes verificados para que puedan rendir cuentas por lo que dicen que están haciendo.
  • Publicar su evaluación de riesgo preelectoral para los Estados Unidos.
Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd