Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2399

Incidentes Asociados

Incidente 4174 Reportes
Facebook Feed Algorithms Exposed Low Digitally Skilled Users to More Disturbing Content

Loading...
Facebook expuso a su audiencia menos familiarizada con lo digital al contenido gráfico
screenrant.com · 2021

El historial de Facebook con el contenido disponible en su plataforma no es nada envidiable, pero para los usuarios que no están bien versados en las herramientas de las redes sociales, la plataforma distribuyó más contenido perturbador. eso podría ser cualquier cosa, desde gráficamente violento hasta de naturaleza sexual. A lo largo de las últimas semanas, el material de investigación interno filtrado por cortesía de la denunciante Frances Haugen ha revelado un historial de elecciones cuestionables realizadas por la empresa.

Entre ellos está su falta de voluntad para resolver el problema del contenido plagiado creado por algunas páginas y grupos populares, pero Facebook ignoró el problema para evitar problemas legales. Facebook también sirvió como semillero para difundir propaganda política y contenido de odio a través de granjas extranjeras de clickbait. Y en lugar de tomar medidas rápidas, el negocio de contenido en realidad pagó a los malos actores a través de sus iniciativas de contenido y anuncios.

Ahora, una nueva investigación de USA Today afirma que los usuarios de Facebook que están rezagados en la alfabetización digital y las habilidades en las redes sociales estuvieron expuestos a contenido perturbador que mostraba violencia y desnudez límite. La empresa, que ahora se llama Meta, realizó una encuesta de usuarios hace un par de años con el objetivo de analizando las habilidades de alfabetización digital de su audiencia. En función de cómo respondieron los usuarios a preguntas sobre términos como etiquetado y otras características fundamentales, Facebook estudió el tipo de contenido al que estuvo expuesta cada persona en los últimos 30 días. Los usuarios que no respondieron correctamente a ninguna de las preguntas sobre las funciones principales de Facebook vieron un 11,4 % más de desnudez y un 13,4 % más de violencia gráfica en su fuente de contenido. Según los informes, un empleado de Facebook que revisó los hallazgos comentó que _"la experiencia de transmisión 'predeterminada', por así decirlo, incluye desnudez + contenido límite a menos que se controle de otra manera". _Para complementar los hallazgos de su investigación, Facebook también contactó a los 'usuarios vulnerables' en sus hogares y realizó entrevistas detalladas para estudiar su experiencia en la plataforma en función de sus bajos niveles de habilidad digital.

El algoritmo de contenido amante de la participación de Facebook tiene la culpa


El equipo de Facebook se dio cuenta de que muchos usuarios en este segmento se alejaron de la plataforma después de ver contenido molesto en su feed que se sumó a los problemas con los que ya estaban luchando. Por ejemplo, publicaciones que mostraban a niños siendo acosados, "amenazantes y matando a otras personas" y tensiones raciales aparecieron en el feed de contenido de Facebook de una mujer negra de mediana edad. Los hallazgos no sorprenden, ya que Facebook provocó controversia por contenido incitador antes del incidente de Capitol Hill a principios de este año y continúa para luchar contra la desinformación de COVID-19, el discurso de odio y conspiraciones como los efectos en la salud de 5G. Para otro usuario en riesgo que se convirtió en miembro del Grupo de Narcóticos Anónimos, Facebook comenzó a mostrar recomendaciones y anuncios de bebidas alcohólicas. Las siguientes páginas de cupones y ahorros pronto se inundaron con publicaciones de estafas financieras.

La plataforma hermana Instagram tampoco es ajena al problema, ya que recientemente recibió una severa advertencia por permitir comercio de drogas para prosperar. Esto representó múltiples muertes relacionadas con sobredosis en los EE. UU. La investigación de Facebook concluyó que su algoritmo de contenido es dañino para las personas que conocen bien los rincones de las redes sociales. Y dado que los usuarios desconocen herramientas como 'ocultar', 'dejar de seguir', 'bloquear' e informar, continúan viendo contenido inapropiado en su feed. Una vez más, las personas de color, aquellas con un nivel socioeconómico más bajo y niveles de educación más bajos fueron las más vulnerables. Más importante aún, entre una cuarta parte y un tercio de todos los usuarios de Facebook caían en la categoría de 'poco capacitados en tecnología' según la propia investigación del titán de las redes sociales.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd