Incidentes Asociados
Instagram recomienda regularmente videos sexuales a cuentas de adolescentes que parecen interesados en contenido subido de tono, y lo hace minutos después de que inician sesión por primera vez, según pruebas realizadas por The Wall Street Journal y un investigador académico.
Las pruebas, que se realizaron durante siete meses hasta junio, muestran que el servicio de redes sociales ha seguido promocionando contenido para adultos a menores después de que Meta Platforms, la plataforma para padres, dijera en enero que estaba brindando a los adolescentes una experiencia más apropiada para su edad al restringir lo que llama contenido sensible, incluido material sexualmente sugerente.
En pruebas independientes realizadas por el Journal y Laura Edelson, profesora de informática en la Universidad Northeastern, se utilizó una metodología similar, que implicaba crear nuevas cuentas con edades indicadas como 13 años. Las cuentas luego vieron la transmisión de videos seleccionados de Instagram, conocida como Reels.
Instagram ofreció una mezcla de videos que, desde el principio, incluían contenido moderadamente subido de tono, como mujeres bailando seductoramente o posando en posiciones que enfatizaban sus senos. Cuando las cuentas se saltaban otros clips pero veían esos videos picantes hasta el final, Reels recomendaba contenido más atrevido.
Los creadores de contenido sexual para adultos comenzaron a aparecer en los feeds en tan solo tres minutos. Después de menos de 20 minutos de ver Reels, los feeds de las cuentas de prueba estaban dominados por promociones para dichos creadores, algunos de los cuales ofrecían enviar fotos de desnudos a los usuarios que interactuaran con sus publicaciones.
Pruebas similares en los productos de videos cortos de Snapchat y TikTok no produjeron el mismo contenido sexualizado para los usuarios menores de edad.
"Las tres plataformas también dicen que hay diferencias en el contenido que se recomendará a los adolescentes", dijo Edelson. "Pero incluso la experiencia para adultos en TikTok parece tener mucho menos contenido explícito que la experiencia para adolescentes en Reels".
Meta descartó los hallazgos de la prueba como poco representativos de la experiencia general de los adolescentes.
"Este fue un experimento artificial que no coincide con la realidad de cómo los adolescentes usan Instagram", dijo el portavoz Andy Stone.
Stone dijo que los esfuerzos de la compañía para evitar que sus sistemas recomienden contenido inapropiado a los menores están en curso. "Como parte de nuestro trabajo de larga data sobre temas de juventud, establecimos un esfuerzo para reducir aún más el volumen de contenido sensible que los adolescentes pueden ver en Instagram, y hemos reducido significativamente estos números en los últimos meses", dijo.
La mayor parte de las pruebas de Edelson y el Journal se llevaron a cabo entre enero y abril. Una prueba adicional realizada por el Journal en junio encontró problemas continuos. A la media hora de su creación, una nueva cuenta de prueba de 13 años que solo veía videos recomendados por Instagram que presentaban mujeres comenzó a recibir video tras video sobre sexo anal.
Autoexamen
Las pruebas y análisis internos de los empleados de Meta han identificado problemas similares, según empleados actuales y anteriores y documentos vistos por el Journal que son parte de una investigación de la compañía previamente no revelada sobre las experiencias dañinas de los adolescentes en Instagram. En 2021, el personal de seguridad de la empresa realizó pruebas similares a las de Edelson y el Journal, y obtuvo resultados comparables, dijeron ex empleados.
Un análisis interno independiente de 2022 revisado por el Journal descubrió que Meta sabe desde hace mucho tiempo que Instagram muestra más pornografía, sangre y discursos de odio a los usuarios jóvenes que a los adultos. Los adolescentes en Instagram informaron haber estado expuestos a acoso, violencia y desnudez no deseada en tasas superiores a las de los usuarios mayores en las encuestas realizadas por la empresa, y las estadísticas de la empresa confirmaron que la plataforma tenía una probabilidad desproporcionada de ofrecer contenido para niños que violaba las reglas de la plataforma.
Los adolescentes vieron tres veces más publicaciones prohibidas que contenían desnudez, 1,7 veces más violencia y 4,1 veces más contenido de acoso que los usuarios mayores de 30 años, según el análisis interno de 2022. Los esfuerzos automatizados de Meta para evitar que ese contenido se sirviera a los adolescentes a menudo eran demasiado débiles para ser efectivos, decía el documento.
El documento sugiere que la forma más eficaz de evitar que se muestre contenido inapropiado a usuarios menores de edad sería crear un sistema de recomendaciones completamente independiente para adolescentes. Meta no ha seguido adelante con esa propuesta.
Algunos altos ejecutivos, incluido el jefe de Instagram, Adam Mosseri, han expresado su preocupación por la exhibición desproporcionada de contenido para adultos y otro material violatorio a los niños, según el personal de la empresa.
Los algoritmos de Reels funcionan, en parte, detectando los intereses de los usuarios en función de los videos que miran más tiempo que otros y recomendando contenido similar.
Meta tiene políticas que rigen dichos sistemas de recomendaciones. Según sus pautas, no se debe recomendar contenido sexualmente sugerente a usuarios de ninguna edad a menos que provenga de cuentas que hayan elegido seguir específicamente.
Según el anuncio de enero de Meta, a los adolescentes menores de 16 años no se les debe mostrar ningún contenido sexual explícito.
En más de una docena de pruebas manuales realizadas por el Journal y Edelson de Northeastern, las cuentas de menores no siguieron a nadie ni buscaron nada, para evitar actividades que pudieran influir en las recomendaciones de contenido de Instagram.
Tan pronto como se establecieron, las cuentas comenzaron a ver Reels. Los clips iniciales presentaban comedia tradicional, autos o acrobacias, así como imágenes de personas que sufrían lesiones. Las cuentas de prueba pasaron por alto esos videos.
Vieron videos recomendados por Instagram que presentaban imágenes como una mujer bailando o posando de una manera que podría interpretarse como sexualmente sugerente. No les gustó, guardaron ni hicieron clic en ningún video.
Después de unas pocas sesiones breves, Instagram dejó en gran medida de recomendar los videos de comedia y acrobacias y alimentó a las cuentas de prueba con un flujo constante de videos en los que las mujeres imitaban actos sexuales, describían gráficamente su anatomía o se acariciaban al ritmo de una música con letras provocativas.
En un clip que Instagram recomendó a una cuenta de prueba identificada como de 13 años, una actriz porno prometió enviar una foto de sus "bolsas de pecho" por mensaje directo a cualquiera que comentara su video. Otra mostró sus genitales a la cámara.
Sesiones adicionales en días posteriores produjeron la misma mezcla de contenido sexual, junto con anuncios de grandes marcas.
Cómo les va a TikTok y Snapchat
Los algoritmos detrás de la función de video "Spotlight" de TikTok y Snapchat funcionan con principios similares a los de Reels.
Se supone que todos funcionan filtrando miles de millones de publicaciones de video y descartando aquellas que no pasan ciertas pruebas de calidad, se predice que contienen contenido considerado "no recomendable" o que no tienen sentido dado el idioma, la edad o la geografía del usuario. Los sistemas luego hacen recomendaciones personalizadas de entre los videos restantes en función de la probabilidad prevista de que un usuario los vea.
A pesar de la mecánica similar de sus sistemas, ni TikTok ni Snapchat recomendaron los feeds de videos con mucho sexo a las cuentas de adolescentes recién creadas como lo hizo Meta, según las pruebas del Journal y Edelson.
En TikTok, las nuevas cuentas de prueba con edades adultas que vieron videos picantes hasta el final comenzaron a recibir más de ese contenido. Pero las nuevas cuentas de prueba de adolescentes que se comportaron de manera idéntica prácticamente nunca vieron ese material, incluso cuando una cuenta de prueba de un menor buscó, siguió y le dio me gusta activamente a los videos de creadores de contenido sexual para adultos.
Un ingeniero de TikTok atribuyó la diferenciación tanto a estándares de contenido más estrictos para usuarios menores de edad como a una mayor tolerancia a los falsos positivos al restringir las recomendaciones.
"Nos equivocamos por el lado de la precaución", dijo un portavoz de TikTok, añadiendo que los adolescentes tienen acceso a un conjunto más limitado de contenidos.
En las pruebas de Edelson en Instagram, tanto las cuentas de prueba de adultos como las de adolescentes siguieron viendo vídeos de creadores de contenido para adultos a tasas similares, lo que sugiere una diferenciación mucho menor. En algunos casos, Instagram recomendó que las cuentas de adolescentes vieran vídeos que la plataforma ya había etiquetado como "perturbadores".
Meta dijo que, por definición, el contenido etiquetado como "perturbador" y oculto detrás de una pantalla de advertencia no debería mostrarse a los niños. Stone atribuyó el resultado a un error y dijo que Meta ha desarrollado más de 50 herramientas y recursos para ayudar a los adolescentes y a sus padres en sus plataformas.
Debate interno
Los funcionarios de Meta han debatido cómo abordar el nivel de visualización de contenido inapropiado para la edad de los niños. En una reunión a finales del año pasado, los principales miembros del personal de seguridad discutieron si sería suficiente reducir la frecuencia con la que los menores ven contenido prohibido al nivel que ven los adultos.
Mosseri, el jefe de Instagram, dijo en la reunión que alcanzar la paridad no sería suficiente dadas las declaraciones públicas de Meta sobre la seguridad de los adolescentes en sus plataformas, según personas familiarizadas con sus comentarios. Esa reunión preparó el escenario para el anuncio de Meta en enero de que automáticamente enviaría a los adolescentes a sus configuraciones de contenido más restrictivas para abstenerse de recomendar contenido sexualmente sugerente o problemático de otro modo.
El éxito de ese esfuerzo aún está por verse.
Los abogados principales de Meta, incluida la asesora general Jennifer Newstead, también comenzaron en la segunda mitad del año pasado a presentar el caso a la alta dirección de la empresa de que los problemas de seguridad infantil en Facebook e Instagram planteaban riesgos legales y regulatorios subestimados, según el personal actual y anterior de seguridad infantil de Meta.
Los empleados dijeron que Meta recientemente ha ampliado sus inversiones en el trabajo de seguridad infantil después de años de presupuestos ajustados, intensificando el escrutinio de sus esfuerzos por parte de los funcionarios del gobierno y las recomendaciones de su departamento legal.