Incidentes Asociados
Incidente 1603 Reportes
Alexa Recommended Dangerous TikTok Challenge to Ten-Year-Old Girl
Incidente 2863 Reportes
TikTok’s "For You" Allegedly Pushed Fatal “Blackout” Challenge Videos to Two Young Girls
Incidente 2793 Reportes
TikTok’s “For You” Algorithm Exposed Young Users to Pro-Eating Disorder Content
El algoritmo de recomendación de TikTok envía contenido sobre autolesiones y trastornos alimentarios a los adolescentes a los pocos minutos de que expresen interés en los temas, sugiere una investigación.
El Centro para Contrarrestar el Odio Digital (CCDH, por sus siglas en inglés) descubrió que el sitio para compartir videos promoverá contenido que incluye dietas peligrosamente restrictivas, contenido a favor de las autolesiones y contenido que idealice el suicidio para los usuarios que muestren preferencia por el material, incluso si están registrados como menores de 18 años.
Para su estudio, el grupo de campaña abrió cuentas en EE. UU., Reino Unido, Canadá y Australia, registrados con una edad de 13 años, la edad mínima para unirse al servicio. Creó cuentas "estándar" y "vulnerable", la última con el término "bajar de peso" en sus nombres de usuario, que CCDH dijo que reflejaba una investigación que mostraba que los usuarios de las redes sociales que buscan contenido sobre trastornos alimentarios a menudo eligen nombres de usuario que contienen lenguaje relacionado.
Las cuentas “se detuvieron brevemente” en videos sobre imagen corporal, trastornos alimentarios y salud mental, y también les gustaron. Esto tuvo lugar durante un período inicial de 30 minutos cuando se lanzaron las cuentas, en un intento de capturar la efectividad del algoritmo de TikTok que recomienda contenido a los usuarios.
En las cuentas "estándar", el contenido sobre el suicidio siguió en casi tres minutos y el material sobre trastornos alimentarios se mostró en ocho minutos.
“Los resultados son la pesadilla de todos los padres”, dijo Imran Ahmed, director ejecutivo de CCDH. “Los feeds de los jóvenes están bombardeados con contenido dañino y desgarrador que puede tener un impacto acumulativo significativo en su comprensión del mundo que los rodea y en su salud física y mental”.
El grupo dijo que la mayoría de los videos de salud mental presentados en sus cuentas estándar a través del feed For You, la principal forma en que los usuarios de TikTok experimentan la aplicación, consistían en usuarios que compartían sus ansiedades e inseguridades.
El contenido de la imagen corporal era más dañino, según el informe, con cuentas registradas de niños de 13 años que mostraban videos que anunciaban bebidas para bajar de peso y cirugías de "abdominoplastia". Una animación que apareció frente a las cuentas estándar tenía un audio que decía "Me he estado muriendo de hambre por ti" y tenía más de 100,000 me gusta. El informe dijo que a las cuentas se les mostraban videos de autolesiones o trastornos alimentarios cada 206 segundos.
Los investigadores encontraron que los videos relacionados con la imagen corporal, la salud mental y los trastornos alimentarios se mostraban a las cuentas "vulnerables" tres veces más que a las cuentas estándar. Las cuentas vulnerables recibieron 12 veces más recomendaciones de videos relacionados con autolesiones y suicidios que las cuentas estándar, según el informe.
El contenido recomendado fue más extremo para las cuentas vulnerables, incluidos métodos de autolesión y jóvenes discutiendo planes para suicidarse. CCDH dijo que se mostraba un video relacionado con la salud mental o la imagen corporal cada 27 segundos, aunque el contenido estaba dominado por videos de salud mental, que CCDH definió como videos sobre ansiedades, inseguridades y condiciones de salud mental, excluyendo trastornos alimentarios, autolesiones y suicidio. .
El grupo dijo que su investigación no diferenció entre contenido con una intención positiva, como contenido que descubre la recuperación, o contenido negativo.
Un portavoz de TikTok, que es propiedad de la firma china ByteDance y tiene más de mil millones de usuarios en todo el mundo, dijo que el estudio de CCDH no reflejaba la experiencia o los hábitos de visualización de los usuarios de la aplicación en la vida real.
“Consultamos regularmente con expertos en salud, eliminamos las violaciones de nuestras políticas y brindamos acceso a recursos de apoyo para cualquier persona que lo necesite”, dijeron. “Somos conscientes de que el contenido desencadenante es único para cada individuo y nos mantenemos enfocados en fomentar un espacio seguro y cómodo para todos, incluidas las personas que eligen compartir sus viajes de recuperación o educar a otros sobre estos temas importantes”.
Las pautas de TikTok prohíben el contenido que promueva comportamientos que podrían conducir al suicidio y la autolesión, así como el material que promueva comportamientos o hábitos alimentarios poco saludables.
El proyecto de ley de seguridad en línea del Reino Unido propone exigir que las redes sociales tomen medidas contra el llamado contenido "legal pero dañino" que se muestra a los niños.
Un portavoz de DCMS dijo: “Estamos poniendo fin a las redes sociales no reguladas que causan daño a nuestros niños. Según el proyecto de ley de seguridad en línea, las plataformas tecnológicas deberán evitar que los menores de 18 años estén expuestos a contenido ilegal que ayude al suicidio y protegerlos de otro material dañino o inapropiado para su edad, incluida la promoción de autolesiones y trastornos alimentarios, o enfrentar grandes multas. .”