Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2401

Incidentes Asociados

Incidente 4174 Reportes
Facebook Feed Algorithms Exposed Low Digitally Skilled Users to More Disturbing Content

Loading...
Facebook alimentó publicaciones con violencia y desnudez a personas con bajo nivel de alfabetización digital
usatoday.com · 2021
  • Los estudios de Facebook dijeron que los algoritmos dañaron a los usuarios con habilidades de baja tecnología con contenido perturbador repetido.
  • Algunos usuarios no entendían cómo aparecía el contenido en sus feeds o cómo controlarlo.
  • Estos usuarios eran a menudo mayores, personas de color, con un nivel educativo más bajo y de nivel socioeconómico más bajo.

Hace dos años, los investigadores de Facebook realizaron una encuesta de cinco preguntas diseñada para evaluar las habilidades de alfabetización digital de sus usuarios.

Probó a los usuarios sobre qué tan bien entendían la interfaz de la aplicación de Facebook y términos como "etiquetar" a alguien en las redes sociales. Su puntaje fue el número de preguntas que respondieron correctamente. Luego, los investigadores compararon las puntuaciones de los usuarios con los tipos de contenido que los algoritmos de Facebook les proporcionaron durante un período de 30 días.

Descubrieron que, en promedio, las puntuaciones de los usuarios predijeron casi a la perfección el porcentaje de publicaciones que aparecían en sus feeds y que contenían violencia gráfica y desnudez límite. Los usuarios que no respondieron correctamente ninguna de las preguntas vieron un 11,4 % más de desnudez y un 13,4 % más de violencia gráfica que los usuarios que respondieron correctamente las cinco.

“Esto es súper interesante”, comentó un empleado en una publicación interna sobre el estudio. "También es muy aleccionador darse cuenta de que la experiencia de transmisión 'predeterminada', por así decirlo, incluye desnudez + contenido límite a menos que se controle de otra manera".

En otro estudio, los investigadores de Facebook realizaron docenas de entrevistas en profundidad y visitas domiciliarias con 18 personas reales de una ciudad que habían identificado como usuarios vulnerables con pocas habilidades de alfabetización digital. Las publicaciones perturbadoras que impregnaron los feeds de estos usuarios, determinó el estudio, provocaron que se desconectaran de Facebook durante largos períodos y exacerbaron las dificultades que ya estaban experimentando.

Por ejemplo, Facebook mostró repetidamente publicaciones de una mujer negra de mediana edad sobre resentimiento racial y videos de personas que intimidan a niños, amenazan y matan a otras personas. Una persona que se unió a un grupo de Facebook de Narcóticos Anónimos comenzó a ver anuncios, recomendaciones y publicaciones sobre bebidas alcohólicas. Poco después de que otra persona comenzara a seguir páginas de cupones y ahorros, su feed se inundó de estafas financieras.

Los estudios se encuentran entre varios realizados por Facebook en los últimos años sobre los efectos dañinos de sus plataformas en personas con pocas habilidades de alfabetización digital, según documentos proporcionados a la Comisión de Bolsa y Valores y al Congreso por los abogados de [Frances Haugen, exempleada de Facebook] (https://www.usatoday.com/story/tech/2021/10/04/facebook-whistleblower-frances-haugen-what-we-know/5993959001/). Un consorcio de [17 organizaciones de noticias](https://www.usatoday.com/story/opinion/2021/10/29/facebook-papers-what-usa-today-found-whistleblower-documents-meta-sex-trafficking -misinformation/8581639002/), incluido USA TODAY, obtuvo copias redactadas de ellos.

Los estudios concluyeron que los algoritmos de Facebook perjudicaron a las personas menos familiarizadas con la tecnología al exponerlas continuamente a contenido perturbador que no sabían cómo evitar. Muchos de ellos no sabían cómo ocultar publicaciones, dejar de seguir páginas, bloquear amigos o denunciar contenido infractor. Pero los algoritmos confundieron su falta de comentarios negativos con aprobación y los alimentaron más.

“Los usuarios poco calificados carecen de la capacidad para hacer frente a contenido incómodo y, en su lugar, pasan de largo, lo que deja al usuario con una mala experiencia y a Facebook sin idea de las preferencias del usuario”, escribió un investigador.

Solo una pequeña fracción de las publicaciones en Facebook (menos de una décima parte del uno por ciento, según las estimaciones de la empresa) muestra contenido infractor, dijo Drew Pusateri, portavoz de la empresa matriz de Facebook, Meta. También señaló que su investigación encontró que los usuarios con poca alfabetización digital en promedio vieron menos contenido de odio. La investigación dijo que esto puede deberse a que los usuarios que ven contenido de odio tienden a buscarlo, y las personas con conocimientos de tecnología pueden ser mejores para localizarlo.

"Como empresa, tenemos todos los incentivos comerciales y morales para tratar de brindar al máximo número de personas una experiencia lo más positiva posible en Facebook", dijo Pusateri. "El crecimiento de personas o anunciantes que usan Facebook no significa nada si nuestros servicios no se usan de manera que acerquen a las personas".

Facebook ha gastado más de $ 5 mil millones este año en seguridad y dedicó a 40,000 personas a trabajar en estos temas, dijo.

Alfabetización en Facebook: ¿Quién tiene problemas?

Los usuarios con pocas habilidades de alfabetización digital tenían significativamente más probabilidades de ser personas mayores, de color, con un nivel educativo más bajo y de nivel socioeconómico más bajo, encontraron los estudios. También era mucho más probable que vivieran fuera de los EE. UU.

Entre un cuarto y un tercio de todos los usuarios de Facebook califican como de baja tecnología, estimaron los investigadores. Eso incluyó aproximadamente una sexta parte de los usuarios de EE. UU. y hasta la mitad de los usuarios en algunos "mercados emergentes".

"Cuando piensas en quién está siendo perjudicado por las decisiones que están tomando Facebook y otras plataformas, son aquellos que han sido perjudicados en el pasado de manera estructural, histórica y sistémica", dijo Angela Siefer, directora ejecutiva. de la Alianza Nacional de Inclusión Digital, un grupo de defensa que tiene como objetivo cerrar la brecha digital en parte a través de la educación de alfabetización digital.

"Ya sea un servicio de banda ancha o una plataforma, debemos dejar de fingir que sus intereses se alinean por completo con los de las personas y los miembros de la comunidad", dijo Siefer. "Si seguimos fingiendo que se alinean, nos decepcionaremos profundamente una y otra vez".

Cuando los investigadores de Facebook mostraron a los usuarios de este grupo demográfico cómo usar funciones como "ocultar" y "dejar de seguir" para seleccionar sus feeds, comenzaron a usarlas regularmente y sus experiencias mejoraron significativamente, descubrieron los investigadores. Facebook también probó un botón "Easy Hide" que cuadruplicó la cantidad de publicaciones que la gente ocultaba.

Los investigadores recomendaron que Facebook lleve a cabo amplias campañas de educación sobre estas características, las haga prominentes y deje de mostrar a los usuarios contenido de grupos y páginas que no siguen.

Facebook no parece haber implementado Easy Hide. Ha introducido otras características, dijo Pusateri, que incluyen "¿Por qué veo esta publicación?" en 2019. Esa función permite a los usuarios ver cómo sus interacciones anteriores en el sitio web dan forma a las decisiones de sus algoritmos para priorizar publicaciones específicas en sus feeds.

¿Qué es la alfabetización digital?

El concepto de alfabetización digital abarca una amplia gama de habilidades necesarias para usar Internet de manera segura, según los investigadores de Facebook. Cubre habilidades funcionales en línea, como saber cómo crear una cuenta o ajustar la configuración de privacidad, así como habilidades básicas de lectura y lenguaje y la capacidad de evaluar la información como subjetiva, sesgada o falsa.

El predictor más fuerte de las habilidades de alfabetización digital de los usuarios fue la cantidad de tiempo que han estado en la plataforma, según un análisis de Facebook. En general, los usuarios menos calificados no entendían cómo aparecía el contenido en sus feeds o cómo controlarlo. Incluyen personas que pueden haber estado familiarizadas con la tecnología pero que aún son vulnerables a la desinformación, los engaños y las estafas, como algunos adolescentes.

Amy VanDeVelde es la directora del programa nacional de tecnología de Connections, una rama de The Oasis Institute, una organización sin fines de lucro con sede en St. Louis que enseña alfabetización digital y habilidades de seguridad cibernética a adultos mayores. Connections ofrece dos cursos de Facebook que enseñan a las personas cómo ocultar publicaciones y cambiar su configuración de privacidad, entre otras funciones.

"Algo de lo que creo que está afectando a los recién llegados digitales cuando empiezan a usar Facebook es una especie de sobrecarga sensorial", dijo VanDeVelde. "Hay tantas cosas que ver y tantas opciones. No tienen idea de lo que hace el algoritmo, cómo desactivar las notificaciones y cómo informar cualquier contenido que no quieran".

Muchos adultos mayores se unen a Facebook para ver fotos de sus nietos, ponerse en contacto con viejos amigos y unirse a grupos de apoyo, dijo VanDeVelde. No siempre entienden cómo se pueden usar sus interacciones en la plataforma para aprovecharlas.

Allan S., quien solicitó que no se publicara su nombre completo debido a preocupaciones por su privacidad en línea, es un usuario mayor de Facebook que disfrutaba participar en encuestas y cuestionarios nostálgicos cuando se unió al sitio web por primera vez hace varios años. No fue hasta que tomó un curso de Connections que se dio cuenta de que algunas encuestas solicitaban información personal, como su materia favorita en la escuela, que podría usarse para restablecer las contraseñas de su cuenta en línea a través de preguntas de seguridad.

"No es como si te metieras en Facebook y de repente supieras lo que estás haciendo", dijo a USA TODAY. "No salen directamente y te dicen: 'Deberías hacer esto, no deberías hacer aquello'".

Describió un incidente reciente que puso en perspectiva la cantidad de información que Facebook recopilaba sobre la vida privada de las personas.

En un sitio de citas en línea, había estado chateando con una mujer que no proporcionó su apellido, dijo. Tampoco proporcionó la suya. Hablaron una vez por teléfono y, poco después, Facebook le recomendó que le enviara una solicitud de amistad. Su perfil de Facebook mostraba su apellido.

"Para ser completamente honesto, me sentí muy incómodo porque, en ese momento, tenía acceso a más sobre ella de lo que ella quería que supiera", dijo. "Es asombroso cómo esta pequeña cosa inofensiva no es necesariamente tan inofensiva. No es necesariamente tan mala. Pero no puedes usarla sin tener cuidado".

Por qué algunos usuarios de Facebook tienen problemas para usar la plataforma


Algunos de los problemas que enfrentan estos usuarios son creados por la propia empresa, encontraron los investigadores. Por ejemplo, las personas no entendían por qué Facebook recomendaba contenido de páginas que no seguían o que no les gustaban.

Los usuarios con una alfabetización digital más baja tendían a usar mucho el reloj de Facebook, una fuente seleccionada de videos populares y virales. Un estudio encontró que Watch mostraba contenido irrelevante y potencialmente incómodo para estos usuarios, quienes brindaban pocos comentarios negativos.

Además, cuando grupos aleatorios de Facebook invitaban a los usuarios a unirse, los algoritmos de Facebook incluían publicaciones de los grupos en los feeds de los usuarios mientras las invitaciones estaban pendientes. Estas publicaciones confundieron y, a veces, molestaron a estos usuarios. Un investigador comentó que la función "parece una laguna en las políticas de Facebook".

"(E) esto puede contribuir a la percepción del usuario de que su feed es un flujo de contenido desconectado sobre el que tienen poca influencia", escribió el investigador.

Los problemas se agravaron para los usuarios menos familiarizados con la tecnología en los países que Facebook clasificó como "en riesgo", incluidos India, Siria, Irak, Yemen, Etiopía, Rusia y Filipinas, encontró la investigación. Los usuarios de Myanmar y algunos otros países tendían a enviar y aceptar indiscriminadamente solicitudes de amistad y unirse a páginas y grupos, que son los principales vectores de contenido divisivo y desinformación, encontró un estudio. La información de baja calidad, incluso sobre COVID-19, también fue más frecuente en las regiones con bajo nivel de alfabetización.

Facebook ha agregado “señales de veracidad” para ayudar a los usuarios a combatir la información errónea, pero los investigadores encontraron que los usuarios con pocas habilidades tecnológicas, particularmente en otros países, no las entendían o les prestaban poca atención. Estos usuarios confundieron la viralidad con un barómetro de confiabilidad, no notaron las insignias de verificación y pasaron por alto las advertencias diseñadas para alertarlos sobre fotos antiguas y fuera de contexto en las publicaciones.

Los investigadores de Facebook criticaron el lenguaje neutral en sus mensajes de advertencia y dijeron que no despertó suficiente escepticismo. Frases como, "Esta publicación incluye una foto que se compartió hace tres años", por ejemplo, hicieron poco para disuadir a los usuarios de algunas áreas de hacer clic en "Compartir de todos modos".

En cambio, los investigadores recomendaron que Facebook use palabras fuertes como "precaución", "engañoso" y "engañoso" para transmitir seriedad y llamar la atención. Facebook también podría dirigir más a los usuarios sobre por qué ciertas publicaciones generan sospechas, dijeron, como diciendo: "Las fotos antiguas pueden ser engañosas".

Pero estas recomendaciones "no concuerdan con la última guía de (CEO) Mark (Zuckerberg) para mantener nuestro mensaje neutral en cuanto a tono y elección de idioma en circunstancias como estas", donde los algoritmos de Facebook pueden ser imperfectos para reconocer contenido engañoso, según un estudio de octubre. 2020 señalado.

Zuckerberg temía los falsos positivos, dijo el estudio, prefiriendo errar por el lado de la aplicación insuficiente y la falta de juicio. Esto frustró a algunos empleados.

“Esta será una píldora muy difícil de tragar internamente”, comentó un empleado sobre el estudio. “En un nivel visceral, dejar impune la desinformación límite y los ataques de mala fe a la democracia/civismo se siente como una afrenta moral.

“Si esto es realmente lo que piensa Mark, esperaría más y más conflictos internos basados en valores en los próximos años y meses”.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd