Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 1641

Incidentes Asociados

Incidente 1974 Reportes
Facebook Internally Reported Failure of Ranking Algorithm, Exposing Harmful Content to Viewers over Months

Loading...
El sistema de Facebook diseñado para sofocar la información errónea dañina en realidad la difunde
thedrum.com · 2022

Los ingenieros de Facebook descubrieron tardíamente una falla significativa en su sistema de clasificación descendente para filtrar contenido dañino, que expuso hasta la mitad de todas las vistas de News Feed a posibles "riesgos de integridad" durante seis meses.

Los informes en The Verge sugieren que la "falla de clasificación masiva" se identificó por primera vez en octubre pasado cuando los ingenieros lucharon contra una ola de información errónea que amenazaba con inundar el News Feed. Investigaciones más cercanas revelaron que un sistema de clasificación diseñado para suprimir la información errónea de las cuentas marcadas, según lo identificado por un equipo de verificadores de datos externos, estaba mostrando estas publicaciones al público.

La correspondencia filtrada sugiere que el error impulsó las vistas de publicaciones maliciosas hasta en un 30% de manera intermitente hasta que el problema finalmente se resolvió el 11 de marzo.

A lo largo de este período de seis meses, los muy cacareados algoritmos policiales de Facebook no lograron subestimar adecuadamente la desnudez, la violencia y la propaganda del estado ruso, un período que coincidió con la invasión de Ucrania por parte del país.

Respondiendo a las consultas de The Verge, el portavoz de Meta, Joe Osborne, describió cinco casos separados de "inconsistencias en la clasificación descendente" atribuidas a un "error de software" durante el cual se le dio mayor visibilidad al material inapropiado.

Sin embargo, Osborne insiste en que el episodio "no ha tenido ningún impacto significativo a largo plazo en nuestras métricas", y enfatiza que el contenido que superó el umbral de eliminación no se vio afectado.

Facebook ha promocionado el sistema de reducción de rango como evidencia de que la autorregulación es efectiva, evitando los llamados a una nueva legislación para frenar la difusión de contenido "sensacionalista y provocativo" que generalmente atrae la mayor atención.

Hasta ahora, Facebook se ha jactado del éxito que han tenido sus algoritmos en la identificación de contenido "límite" que bordea los límites de la aceptabilidad en áreas como el discurso de odio, marcando presuntas infracciones para su revisión manual.

Un informe reciente encontró que el discurso de odio estaba presente en seis de cada 10,000 vistas de Facebook.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd