Incidentes Asociados

Meta, de Mark Zuckerberg, se disculpó después de que los usuarios de Instagram fueran sometidos a una avalancha de violencia, sangre, maltrato animal y cadáveres en sus feeds de Reels.
Los usuarios denunciaron las imágenes después de un aparente mal funcionamiento del algoritmo de Instagram, que selecciona lo que la gente ve en la aplicación.
Reels es una función de la plataforma de redes sociales que permite a los usuarios compartir vídeos cortos, similar a TikTok.
Un foro de Instagram en Reddit, la plataforma de debate en línea, contenía publicaciones de usuarios que hacían referencia al material gráfico que había aparecido en sus feeds a mitad de semana.
Un usuario del subreddit escribió: "Acabo de ver morir al menos a 10 personas en mis Reels".
También hubo referencias de los usuarios a un vídeo de un hombre aplastado por un elefante. Otros usuarios han señalado imágenes de un hombre desmembrado por un helicóptero y un vídeo en el que "un tipo se mete la cara en aceite hirviendo". Varios usuarios han publicado vídeos de sus feeds de Reels dominados por pantallas de "contenido sensible" diseñadas para proteger a los usuarios de material gráfico.
Una lista de contenido violento en el feed de un usuario, publicada por el sitio de noticias tecnológicas 404, incluía: un hombre al que le prenden fuego; un hombre que le dispara a un cajero a quemarropa; vídeos de una cuenta llamada "PeopleDeadDaily"; y un cerdo al que golpean con una llave inglesa. El usuario en cuestión tenía una cuenta de Instagram relacionada con el ciclismo, según informó 404 Media.
Otro usuario de Reddit escribió: "Durante las últimas 24 horas, parece que el algoritmo de Instagram se ha vuelto rebelde. Mi feed está repleto de Reels violentos, uno tras otro.
“Es como si Instagram ahora estuviera tratando de hacerme cuestionar si seguí accidentalmente una cuenta de ‘caos y derramamiento de sangre’. Entiendo que la plataforma se trata de ‘compromiso’ y ‘tendencias’, pero ¿realmente pensaron que esta era la manera de hacer que la gente se desplazara más?”
Un portavoz de Meta, la empresa matriz de Instagram y Facebook, dijo: “Hemos corregido un error que provocó que algunos usuarios vieran contenido en su feed de Reels de Instagram que no debería haber sido recomendado. Nos disculpamos por el error”.
El error se debe a cambios recientes en el enfoque de Meta sobre la moderación de contenido. Sin embargo, la compañía le dijo a 404 Media que la avalancha de videos gráficos no estaba relacionada con la revisión de las reglas de contenido de Meta, que incluía la eliminación de verificadores de hechos y la reducción "drástica" de la cantidad de censura en sus plataformas.
Las directrices de contenido de Meta establecen que la compañía eliminará el contenido que sea "particularmente violento o gráfico" y que algunas imágenes estarán protegidas por pantallas de contenido sensible. En el Reino Unido, la Ley de Seguridad en Línea requiere que las plataformas de redes sociales tomen medidas para evitar que los menores de 18 años vean material que sea dañino para ellos, como material violento, odioso o abusivo, lo que incluirá la configuración de sus algoritmos para filtrar dicho contenido.
Un grupo de campaña de seguridad en Internet exigió una “explicación completa” de lo que había sucedido con el algoritmo de Instagram.
La Fundación Molly Rose, creada por la familia de la adolescente británica Molly Russell, que se suicidó en 2017 después de ver contenido angustiante en Instagram, dijo que era necesario responder preguntas sobre por qué ese contenido tan gráfico estaba en la plataforma en primer lugar.
“A medida que Instagram reduzca la moderación de contenido, es probable que esto sea una señal de lo que vendrá”, dijo Andy Burrows, el director ejecutivo de la fundación. “Los cambios de Meta significarán que este tipo de contenido estará disponible de forma más gratuita y se recomendará con más frecuencia que aparezca en los feeds de los usuarios”.