Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2325

Incidentes Asociados

Incidente 4193 Reportes
Facebook's Automated Moderation Allowed Ads Threatening Election Workers to be Posted

Loading...
Facebook no pudo detener los anuncios que amenazaban a los trabajadores electorales
nytimes.com · 2022

Facebook dice que no permite contenido que amenace con violencia grave. Pero cuando los investigadores enviaron anuncios que amenazaban con "linchar", "asesinar" y "ejecutar" a los trabajadores electorales alrededor del día de las elecciones de este año, los sistemas de moderación en gran parte automatizados de la compañía aprobaron muchos de ellos.

De los 20 anuncios enviados por investigadores con contenido violento, 15 fueron aprobados por Facebook, según una nueva prueba publicada por Global Witness, un grupo de vigilancia, y [Cybersecurity for Democracy] de la Universidad de Nueva York (https://cybersecurityfordemocracy.org/ ). Los investigadores eliminaron los anuncios aprobados antes de que se publicaran.

Diez de los anuncios de prueba se enviaron en español. Facebook aprobó seis de esos anuncios, en comparación con nueve de los 10 anuncios en inglés.

TikTok y YouTube rechazaron todos los anuncios y suspendieron las cuentas que intentaron enviarlos, dijeron los investigadores.

Las pruebas subrayaron los desafíos que enfrentan las redes sociales para moderar el contenido cada vez más partidista y violento en torno a las elecciones, especialmente porque los trabajadores electorales enfrentan amenazas adicionales de los que niegan las elecciones y los extremistas de extrema derecha. El Departamento de Justicia y otras agencias federales [advirtieron](https://www.cnbc.com/2022/10/27/were-going-to-hang-you-doj-cracks-down-on-threats-to-election -workers-ahead-of-high-stakes-midterms.html) antes de las elecciones de mitad de período de este año que habían aumentado las amenazas contra los trabajadores electorales.

En un comunicado, un portavoz de Meta, la empresa matriz de Facebook, dijo que luego deshabilitó varias cuentas que habían enviado los anuncios. La compañía también dijo que los anuncios continúan siendo revisados después de su publicación.

"Esta es una pequeña muestra de anuncios que no son representativos de lo que la gente ve en nuestras plataformas", dijo el portavoz en un comunicado. "El contenido que incita a la violencia contra los trabajadores electorales o cualquier otra persona no tiene cabida en nuestras aplicaciones, y los informes recientes han dejado en claro que la capacidad de Meta para abordar estos problemas supera efectivamente la de otras plataformas".

La investigación se suma a pruebas anteriores realizadas por los mismos grupos, incluido uno este año en los cuales se enviaron 20 anuncios que contenían desinformación política. En esa prueba, Facebook aprobó solo dos de los anuncios engañosos en inglés de una cuenta en los Estados Unidos, mientras que TikTok aprobó alrededor del 90 por ciento de ellos. YouTube suspendió la cuenta que intentó enviar los anuncios.

Pero esta ronda usó un lenguaje más abierto que probó el [sistema de moderación automatizado] en gran parte de Facebook (https://www.facebook.com/business/news/facebook-ad-policy-process-and-review). Entre ellos se incluían amenazas directas de violencia, que procedían de declaraciones reales de los que niegan las elecciones y otros extremistas de extrema derecha en los Estados Unidos. Un anuncio, que fue aprobado por Facebook, decía: "Los vamos a matar a todos". También se aprobó otro anuncio que amenazaba con abusar de los niños.

"Fue realmente bastante impactante ver los resultados", dijo Damon McCoy, profesor asociado en N.Y.U. "Pensé que una búsqueda de palabra clave realmente simple habría marcado esto para revisión manual".

En un comunicado, los investigadores también dijeron que querían que las redes sociales como Facebook aumentaran los esfuerzos de moderación de contenido y ofrecieran más transparencia en torno a las acciones de moderación que realizan.

“El hecho de que YouTube y TikTok lograron detectar las amenazas de muerte y suspender nuestra cuenta, mientras que Facebook permitió que se publicaran la mayoría de los anuncios demuestra que lo que estamos pidiendo es técnicamente posible”, escribieron.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd