Incidentes Asociados

El algoritmo de TikTok es casi demasiado bueno para sugerir contenido relacionado, hasta el punto de ser perjudicial para la salud mental de algunos usuarios.
Es casi imposible evitar activar el contenido en TikTok y, debido a la naturaleza de la interminable página Para ti de la aplicación, los usuarios pueden terminar fácilmente atrapados desplazándose por el contenido sugerido seleccionado para sus activadores específicos.
Los videos que glorifican la alimentación desordenada, por ejemplo, prosperan en TikTok. La etiqueta #flatsomach tiene 44,2 millones de visitas. Las etiquetas #proana y #thinsp0, abreviatura de pro-anorexia e inspiración delgada, tienen 2,1 millones de visitas y 446.000 visitas, respectivamente. Como escribió la editora senior Rachel Charlene Lewis en Bitch, pro -Ana cultura e Internet se entrelazaron mucho antes de la ubicuidad de TikTok en los teléfonos de los adolescentes. Durante los primeros días de las redes sociales, los jóvenes usaban foros y tableros de mensajes para hacer un seguimiento de su pérdida de peso e intercambiar consejos sobre dietas. A principios de la década de 2010, florecieron en Tumblr los blogs sobre trastornos alimentarios que glorificaban las clavículas afiladas y las cajas torácicas débiles. Más recientemente, la comunidad de cuentas de Twitter con temas de trastornos alimentarios usó memes para alentar a los miembros a seguir con sus regímenes alimentarios restrictivos.
Si bien era posible tropezar con fragmentos de la comunidad de ED (trastornos alimentarios) en otras plataformas, era más probable que los usuarios los encontraran al buscar intencionalmente esa comunidad. Pero en TikTok, los usuarios reciben contenido algorítmicamente basado en sus intereses. Si un usuario se demora en un video con la etiqueta #diet o #covid15, una frase que se usa para referirse a aumento de peso en cuarentena Con 2,1 millones de visitas, la aplicación seguirá sugiriendo contenido sobre pérdida de peso y dietas. Es una pendiente resbaladiza hacer cola en los diarios de alimentos sobre cómo subsistir con té verde, pasteles de arroz y otros alimentos bajos en calorías populares en la comunidad de trastornos alimentarios.
"En lugar de inundar al usuario con contenido que puede o no disfrutar, cada plataforma en línea utiliza algoritmos para controlar mejor el 'flujo' de agua a través de la manguera".
David Polgar, un especialista en ética tecnológica que forma parte del Consejo Asesor de Contenido de TikTok, compara la página For You de TikTok con una manguera conectada a una gran fuente de agua. En lugar de inundar al usuario con contenido que puede o no disfrutar, TikTok usa un algoritmo para controlar mejor el "flujo" de agua a través de la manguera.
"Plantea preguntas muy delicadas sobre asegurarse de que no esté reforzando algún tipo de burbuja de filtro de cámara de eco, para que no lleve a nadie a las madrigueras de los conejos", dijo Polgar en una llamada telefónica. YouTube, señaló, recibió reacción negativa significativa el año pasado por sugerir videos de conspiraciones de derecha cada vez más radicales basados en historial de visualización de los usuarios.
Mi descenso a ED TikTok comenzó, irónicamente, con videos que criticaban a un creador popular por ser insensible a la recuperación del trastorno alimentario. Addison Rae Easterling, una bailarina de TikTok de 19 años con 56 millones de seguidores, fue criticada en junio por [promover su patrocinio] (https://www.tiktok.com/@islamophobic/video/6838346924932812038) con American Eagle bailando a una canción sobre la dismorfia corporal. Vestida con un par de mom jeans de lavado claro, Easterling baila al coro de "Prom Queen" de Beach Bunny. La canción sí incluye la frase " mom jeans", pero está precedido por la letra, "Cállate, cuenta tus calorías. Nunca me vi bien en mom jeans".
Easterling enfrentó una reacción violenta de otros usuarios de TikTok, especialmente aquellos en recuperación de ED. En un dúo con el video ahora eliminado, una mujer joven arrastra su sonda de alimentación al marco y se burla del baile de Easterling. Otros usuarios subtitularon videos con sus propias experiencias con los trastornos alimentarios en un esfuerzo por señalar cuán graves pueden ser. Uno trató de señalar cuán insensible era el sponcon de Easterling al describir sus propios hábitos alimenticios restrictivos. Otro usuario de TikTok trató de enfatizar cuán destructivos pueden ser los trastornos alimentarios al [relatar] (https://www.tiktok.com/@closetedlesbianshit/video/6862109157525343494) gráficamente cómo solía fantasear con cortarse el estómago.
Los usuarios de TikTok involuntariamente alimentaron la misma mentalidad que impulsa el florecimiento de los trastornos alimentarios: la competencia.
En un esfuerzo por criticar a Easterling, los usuarios de TikTok involuntariamente alimentaron la misma mentalidad que impulsa el florecimiento de los trastornos alimentarios: la competencia. Ashley Lytwyn, nutricionista dietista registrada que se especializa en el tratamiento de pacientes con trastornos alimentarios, le dijo a Mashable que incluso en recuperación, comparar los síntomas puede ser competitivo. Muchos de los que sufren desórdenes alimenticios no solo se esfuerzan por ser delgados, sino por ser los más delgados. Aquellos en recuperación pueden incluso querer ser los más enfermos.
"Las personas con trastornos alimentarios a veces no se sienten 'tan mal' si no son las más enfermas de la sala o de las redes sociales", dijo Lytwyn en un correo electrónico. "Esto puede ser extremadamente peligroso ya que las personas con disfunción eréctil harán todo lo posible para 'ganar' a ser los más enfermos y, a menudo, ponen sus cuerpos en un daño extremo para llegar allí".
Llamar a Easterling resaltando hábitos extremos como masticar hielo y purgarse después de un atracón de comida es en realidad más dañino para la recuperación de la disfunción eréctil que el baile original de Easterling, ya que puede motivar a alguien a imitar ese comportamiento y recaer. A medida que me comprometía con contenido bien intencionado pero equivocado que describía el conteo de calorías, el ejercicio extremo y otros hábitos autodestructivos, mi página Para ti comenzó a mostrarme más contenido sobre fitness y dieta. Solo unos días después de que me gustara un video con la etiqueta #edrecovery, mi página For You me mostró un video de una mujer que logró su estómago plano saltándose las comidas a favor de mascar chicle y beber té.
No es solo el contenido ED el que logra aterrizar en la página For You de los usuarios de TikTok. En la aplicación circulan videos sobre autolesiones, suicidio, agresión sexual, abuso, problemas de salud mental y una gran cantidad de otros temas potencialmente desencadenantes. Al igual que en cualquier otra forma de plataforma de redes sociales, es imposible protegerse por completo de encontrarse con contenido desencadenante. TikTok, sin embargo, está estructurado de manera única para continuar mostrando contenido desencadenante si los usuarios interactúan con él.
TikTok, sin embargo, está estructurado de manera única para continuar mostrando contenido desencadenante si los usuarios interactúan con él.
En un esfuerzo por ser más transparente en medio de las preocupaciones de seguridad debido a la propiedad china de la empresa, TikTok reveló cómo su algoritmo funciona hace unos meses. Cuando un usuario carga un video, el algoritmo lo muestra a un pequeño grupo de otros usuarios que probablemente interactúen con él, independientemente de si siguen o no al usuario que publicó el video. Si el grupo interactúa con él, ya sea dándole me gusta, compartiéndolo o simplemente viéndolo en su totalidad, el algoritmo muestra el video a un grupo más grande. Si ellos responden favorablemente, el video se vuelve a mostrar a un grupo más grande y este proceso continúa hasta que el video se vuelve viral.
Para determinar los intereses de un usuario individual, TikTok utiliza una variedad de indicadores, como subtítulos, sonidos y hashtags. Si un usuario ha interactuado con esos indicadores, como ver un video subtitulado con una frase determinada hasta el final, el algoritmo lo toma como una luz verde para continuar recomendando videos como ese.
Es menos un plan malicioso tipo Black Mirror para anunciar la adquisición del robot y más un descuido desafortunado en una característica bien intencionada. El concepto de prohibir por completo el contenido potencialmente desencadenante ha provocado un debate sobre si las empresas privadas, como las plataformas de redes sociales, tienen la obligación de defender los principios de la libertad de expresión. También es increíblemente difícil moderar este tipo de contenido. Los usuarios de TikTok logran eludir las banderas de contenido de TikTok al escribir mal ciertas frases. El suicidio, por ejemplo, se convierte en "suic1de" o en videos más morbosamente alegres, "aliven't". La etiqueta #thinspo está bloqueada, pero la etiqueta #thinspo0 no. Los usuarios no podrán encontrar ningún contenido etiquetado como #depresión, pero #depresión tiene 498,8 millones de visitas.
Algunos usuarios de redes sociales, ya sea en TikTok, Twitter o YouTube, aceptan un contrato social no oficial para usar advertencias de activación cuando se habla de contenido potencialmente traumático. Las advertencias desencadenantes son especialmente controvertidas en el aula y los críticos conservadores asocian el término con estudiantes universitarios que no pueden manejar situaciones difíciles. conversaciones Si bien las advertencias desencadenantes se diseñaron originalmente para permitir que los sobrevivientes con PTSD evitaran contenido traumático, su [eficacia] (https://slate.com/technology/2019/07/trigger-warnings-research-shows-they-dont-work-might -hurt.html) es cuestionable. En un experimento informal, la usuaria de TikTok loveaims presenta fotos de sí misma en su peso más bajo mientras lucha contra la anorexia con dos advertencias. Luego, en lugar de mostrar fotos, llamó a otros usuarios de TikTok.
"Esto prueba que las advertencias de activación no hacen nada", escribió loveaims en su video. "La gente los ignorará. No 'advierten a los demás' sobre el contenido desencadenante y no aceptable que la gente publica".
Entonces, ¿qué puedes hacer para evitar dejarte atrapar por una posible recaída? No podemos esperar que los creadores eviten activar contenido por completo, y no podemos esperar que todos tengan los mismos estándares sobre lo que "cuenta" como contenido potencialmente dañino.
También es difícil evitar de manera proactiva los disparadores en TikTok, aunque los usuarios pueden indicar que no están interesados en ciertos videos y pueden bloquear ciertos sonidos y usuarios específicos, no pueden bloquear palabras clave. Como miembro del Consejo Asesor de Contenido de TikTok, Polgar quiere ver más personalización disponible para que los usuarios puedan controlar mejor el contenido que ven.
"Si algo es ofensivo para una persona y lo han indicado, debería haber una mejor capacidad para disminuir la probabilidad de que ese contenido se muestre nuevamente, porque esa debería ser su decisión", dijo Polgar.
Además, las plataformas pueden hacer un mejor trabajo al asociarse con organizaciones de salud mental para proporcionar recursos relacionados con ciertas frases marcadas. En respuesta a la desinformación desenfrenada sobre COVID-19, por ejemplo, TikTok agregó un banner a videos etiquetados con ciertas palabras clave que llevaron a los usuarios a información sobre cómo se propaga el virus y cómo evitar contraerlo. Polgar dijo que la plataforma está en proceso de trabajar con organizaciones de salud mental para brindar recursos de salud mental a sus usuarios.
"Lo que muchas plataformas están tratando de hacer es básicamente... asegurarse de que, si es ofensivo o desencadenante para usted, tenga una manera fácil de modificarlo y, francamente, tenga un diseño mejor y más intuitivo", continuó Polgar. . Si los usuarios se encuentran con algo potencialmente desencadenante, deberían poder "hacer clic en algo" que los proteja.
Por otro lado, los usuarios pueden evitar contenido que pueda dañar su salud mental al no interactuar con él. Sin embargo, es mucho más fácil decirlo que hacerlo, y dado lo difícil que puede ser evitar una recaída, Lytwyn sugiere una medida más extrema. Si se encuentra atrapado en una espiral de trauma generado algorítmicamente, elimine su cuenta y comience de nuevo.
"Esto reinicia[s] el algoritmo para que las cuentas de alimentos, las cuentas de alimentación desordenada o las cuentas de bikini no parpadeen constantemente en su feed", escribió Lytwyn. Agregó que un paciente reciente abrió una nueva cuenta de TikTok e intencionalmente buscó videos sobre diseño de interiores y arquitectura. Al mirar, compartir y comentar videos con etiquetas específicas, el paciente de Lytwyn seleccionó una fuente estéticamente agradable de contenido que no es para DE. "No podemos deshacernos por completo de ver una cuenta como esa, pero si la mayor parte del feed es una industria completamente diferente, entonces es menos probable que sea influyente cuando surja".
Si ya ha acumulado muchos seguidores y no quiere tener que empezar desde cero, también puede configurar su página Para usted para mostrarle otro contenido en lugar de videos sobre hábitos alimenticios. Al interactuar intencionalmente con videos que no se centran en alimentos y dietas, los usuarios de TikTok pueden entrenar el algoritmo para mostrar otro contenido en su lugar.
De acuerdo, un posible desencadenante puede abrirse camino a través de su feed seleccionado de vez en cuando. En esos casos, dijo Lytwyn, es mejor apagar el teléfono, llamar a la persona de apoyo, ya sea un terapeuta o un ser querido, y pedir una distracción.
Si te encuentras atrapado en una red de contenido que te hace sentir incómodo, comienza a seguir las etiquetas que te traen alegría: diseños elaborados de islas de Animal Crossing, videos relajantes de tejido, gatitos recién nacidos que dan sus primeros pasos pueden ser buenos puntos de partida. El hecho de que te encuentres con videos desencadenantes en TikTok no significa que tengan que formar toda tu página Para ti.