Incidents associés

L'algorithme de TikTok est presque trop bon pour suggérer un contenu pertinent - au point d'être préjudiciable à la santé mentale de certains utilisateurs.
Il est presque impossible d'éviter de déclencher du contenu sur TikTok, et en raison de la nature de la page For You sans fin de l'application, les utilisateurs peuvent facilement se retrouver piégés en parcourant le contenu suggéré organisé pour leurs déclencheurs spécifiques.
Les vidéos glorifiant les troubles alimentaires, par exemple, fleurissent sur TikTok. Le tag #flatstomach a 44,2 millions de vues. Les tags #proana et #thinsp0, abréviation de pro-anorexie et inspiration mince, ont respectivement 2,1 millions de vues et 446 000 vues. Comme l'a écrit la rédactrice en chef Rachel Charlene Lewis dans Bitch, pro La culture -ana et Internet étaient étroitement liées bien avant l'omniprésence de TikTok sur les téléphones des adolescents. Au début des médias sociaux, les jeunes utilisaient des forums et des babillards électroniques pour suivre leur perte de poids et échanger des conseils diététiques. Au début des années 2010, les blogs sur les troubles de l'alimentation glorifiant les clavicules acérées et les cages thoraciques de waifish ont prospéré sur Tumblr. Plus récemment, la communauté des comptes Twitter sur le thème des troubles de l'alimentation a utilisé memes pour encourager les membres à s'en tenir à leur régimes alimentaires restrictifs.
S'il était possible de tomber sur des fragments de la communauté ED (trouble de l'alimentation) sur d'autres plateformes, les utilisateurs étaient plus susceptibles de le trouver en recherchant intentionnellement cette communauté. Mais sur TikTok, les utilisateurs sont alimentés de manière algorithmique en fonction de leurs intérêts. Si un utilisateur s'attarde sur une vidéo taguée #régime ou #covid15, une phrase utilisée pour faire référence à poids pris en quarantaine avec 2,1 millions de vues, l'application continuera à suggérer du contenu sur la perte de poids et les régimes amaigrissants. C'est une pente glissante pour faire la queue dans des journaux alimentaires sur la subsistance avec du thé vert, des gâteaux de riz et d'autres aliments hypocaloriques populaires dans la communauté des troubles de l'alimentation.
"Plutôt que d'inonder l'utilisateur de contenu qu'il peut ou non apprécier, chaque plateforme en ligne utilise des algorithmes pour mieux contrôler le 'flux' d'eau à travers le tuyau."
David Polgar, un éthicien technologique qui siège au conseil consultatif sur le contenu de TikTok, compare la page For You de TikTok à un tuyau relié à une grande source d'eau. Plutôt que d'inonder l'utilisateur de contenu qu'il peut ou non apprécier, TikTok utilise un algorithme pour mieux contrôler le "flux" d'eau à travers le tuyau.
"Cela soulève des questions très délicates pour s'assurer qu'il ne renforce pas un type de bulle de filtre de chambre d'écho, afin qu'il ne conduise personne dans des trous de lapin", a déclaré Polgar lors d'un appel téléphonique. YouTube, a-t-il noté, a reçu [un contrecoup significatif] (https://www.nytimes.com/interactive/2019/06/08/technology/youtube-radical.html) l'année dernière pour avoir suggéré des vidéos de complot de droite de plus en plus radicales basées sur l'historique des vidéos regardées des utilisateurs.
Ma descente dans ED TikTok a commencé, ironiquement, avec des vidéos critiquant un créateur populaire pour son insensibilité à la récupération des troubles alimentaires. Addison Rae Easterling, une danseuse TikTok de 19 ans avec 56 millions de followers, a été critiquée en juin pour promouvoir son parrainage avec American Eagle en dansant à une chanson sur la dysmorphie corporelle. Vêtu d'un jean mom légèrement délavé, Easterling danse sur le refrain de Beach Bunny's "Prom Queen." La chanson does inclut la phrase " mom jeans », mais il est précédé des paroles, « Tais-toi, compte tes calories. Je n'ai jamais été belle dans un jean mom.
Easterling a fait face à des réactions négatives de la part d'autres utilisateurs de TikTok, en particulier ceux en récupération ED. Dans un duo avec la vidéo maintenant supprimée, une jeune femme glisse son tube d'alimentation dans le cadre et se moque de la danse d'Easterling. D'autres utilisateurs ont sous-titré des vidéos avec leurs propres expériences avec les troubles de l'alimentation dans le but de souligner à quel point ils peuvent être graves. L'une d'entre elles a tenté de montrer à quel point le sponcon d'Easterling était insensible en décrivant ses propres habitudes alimentaires restrictives. Un autre utilisateur de TikTok a tenté de souligner à quel point les troubles de l'alimentation peuvent être destructeurs en racontant graphiquement comment elle avait l'habitude de fantasmer sur le fait de se trancher le ventre.
Les utilisateurs de TikTok ont involontairement alimenté la mentalité même qui fait prospérer les troubles de l'alimentation : la compétition.
Dans un effort pour critiquer Easterling, les utilisateurs de TikTok ont involontairement alimenté la mentalité même qui fait prospérer les troubles de l'alimentation : la compétition. Ashley Lytwyn, une nutritionniste diététiste spécialisée dans le traitement des patients souffrant de troubles de l'alimentation, a déclaré à Mashable que même en convalescence, la comparaison des symptômes peut être compétitive. Beaucoup de ceux qui souffrent de troubles de l'alimentation ne s'efforcent pas seulement d'être minces, mais d'être les plus minces. Ceux qui sont en convalescence peuvent même vouloir être les plus malades.
"Les personnes souffrant de troubles de l'alimentation n'ont parfois pas l'impression d'être" si mal "si elles ne sont pas les plus malades dans la pièce ou sur les réseaux sociaux", a déclaré Lytwyn dans un e-mail. "Cela peut être extrêmement dangereux, car les personnes atteintes de dysfonction érectile se donneront beaucoup de mal pour" gagner "d'être les plus malades et mettront souvent leur corps en danger extrême pour y arriver."
Appeler Easterling en mettant en évidence des habitudes extrêmes comme mâcher de la glace et purger après une frénésie alimentaire est en fait plus nocif pour la récupération de la dysfonction érectile que ne l'était la danse originale d'Easterling, car cela peut motiver quelqu'un à imiter ce comportement et à rechuter. Alors que je m'engageais dans un contenu bien intentionné mais malavisé décrivant le comptage des calories, l'exercice extrême et d'autres habitudes autodestructrices, ma page For You a commencé à me montrer plus de contenu sur la forme physique et l'alimentation. Quelques jours seulement après avoir aimé une vidéo taguée #edrecovery, ma page For You m'a montré une vidéo d'une femme atteignant son ventre plat en sautant des repas au profit de chewing-gum et de boire du thé.
Ce n'est pas seulement le contenu ED qui parvient à atterrir sur la page For You des utilisateurs de TikTok. Des vidéos sur l'automutilation, le suicide, les agressions sexuelles, les abus, les problèmes de santé mentale et une multitude d'autres sujets potentiellement déclencheurs circulent sur l'application. Comme sur toute autre forme de plate-forme de médias sociaux, il est impossible de vous protéger totalement contre la découverte de contenu déclencheur. TikTok, cependant, est structuré de manière unique pour continuer à afficher le contenu déclencheur si les utilisateurs s'y engagent.
TikTok, cependant, est structuré de manière unique pour continuer à afficher le contenu déclencheur si les utilisateurs s'y engagent.
Dans un effort pour être plus transparent au milieu des problèmes de sécurité en raison de la propriété chinoise de l'entreprise, TikTok révélé comment son algorithme fonctionne depuis quelques mois. Lorsqu'un utilisateur met en ligne une vidéo, l'algorithme la montre à un petit groupe d'autres utilisateurs susceptibles d'interagir avec elle, qu'ils suivent ou non l'utilisateur qui a publié la vidéo. Si le groupe s'y engage, soit en l'aimant, en la partageant ou même en la regardant dans son intégralité, l'algorithme montre la vidéo à un groupe plus large. Si ils répondent favorablement, la vidéo est à nouveau montrée à un groupe plus large, et ce processus se poursuit jusqu'à ce que la vidéo devienne virale.
Pour déterminer les intérêts d'un utilisateur individuel, TikTok utilise une variété d'indicateurs tels que des légendes, des sons et des hashtags. Si un utilisateur s'est engagé avec ces indicateurs, comme regarder une vidéo sous-titrée avec une certaine phrase jusqu'à la fin, l'algorithme le considère comme un feu vert pour continuer à recommander des vidéos comme celle-ci.
Il s'agit moins d'un plan malveillant de type Black Mirror\ pour annoncer la prise de contrôle du robot et plus d'un oubli malheureux dans une fonctionnalité bien intentionnée. Le concept d'interdire complètement les contenus potentiellement déclencheurs a suscité un débat sur la question de savoir si les entreprises privées, comme les plateformes de médias sociaux, ont l'obligation de respecter les principes de la liberté d'expression. Il est également incroyablement difficile de modérer ce type de contenu. Les utilisateurs de TikTok parviennent à contourner les indicateurs de contenu de TikTok en mal orthographiant certaines phrases. Le suicide, par exemple, devient « suic1de » ou, dans des vidéos plus légères et morbides, « aliven't ». La balise #thinspo est bloquée, mais la balise #thinsp0 ne l'est pas. Les utilisateurs ne pourront trouver aucun contenu tagué #depression, mais #depresion compte 498,8 millions de vues.
Certains utilisateurs de médias sociaux - que ce soit sur TikTok, Twitter ou YouTube - acceptent un contrat social non officiel pour utiliser des avertissements déclencheurs lorsqu'ils discutent de contenu potentiellement traumatisant. Les avertissements de déclenchement sont [particulièrement controversés] (https://www.vox.com/2015/9/10/9298577/trigger-warnings-college) dans la salle de classe et les critiques conservateurs associent le terme aux étudiants qui ne peuvent pas gérer les difficultés conversations. Alors que les avertissements de déclenchement ont été conçus à l'origine pour permettre aux survivants atteints de SSPT d'éviter les contenus traumatisants, leur [efficacité](https://slate.com/technology/2019/07/trigger-warnings-research-shows-they-dont-work-might -hurt.html) est discutable. Dans une expérience informelle, l'utilisatrice de TikTok, loveaims, a préfacé des photos d'elle-même à son poids le plus bas alors qu'elle luttait contre l'anorexie avec deux avertissements de déclenchement. Puis, au lieu de montrer des photos, elle a appelé d'autres utilisateurs de TikTok.
"Cela prouve que les avertissements de déclenchement ne font rien", a écrit loveaims dans sa vidéo. "Les gens vont les ignorer. Ils n'"avertissent pas les autres" du contenu très déclencheur et pas acceptable que les gens publient."
Alors, que pouvez-vous faire pour éviter de vous laisser entraîner dans une éventuelle rechute ? Nous ne pouvons pas nous attendre à ce que les créateurs évitent complètement de déclencher du contenu, et nous ne pouvons pas nous attendre à ce que tout le monde ait les mêmes normes pour ce qui "compte" comme contenu potentiellement dangereux.
Il est également difficile d'éviter de manière proactive les déclencheurs sur TikTok - bien que les utilisateurs puissent indiquer qu'ils ne sont pas intéressés dans certaines vidéos et peuvent bloquer certaines des sons et des utilisateurs spécifiques, ils ne peuvent pas bloquer les mots-clés. En tant que membre du comité consultatif sur le contenu de TikTok, Polgar souhaite voir plus de personnalisation disponible afin que les utilisateurs puissent mieux contrôler le contenu qu'ils voient.
"Si quelque chose est offensant pour une personne et qu'elle l'a indiqué, il devrait y avoir une meilleure capacité à réduire la probabilité que ce contenu soit à nouveau affiché, car cela devrait être sa décision", a déclaré Polgar.
De plus, les plateformes peuvent faire un meilleur travail de partenariat avec des organisations de santé mentale pour fournir des ressources liées à certaines phrases signalées. En réponse à la désinformation généralisée sur COVID-19, par exemple, TikTok a ajouté une bannière aux vidéos étiquetées avec certains mots-clés qui ont conduit les utilisateurs à des informations sur la façon dont le virus se propage et comment éviter de le contracter. Polgar a déclaré que la plateforme est en train de travailler avec des organisations de santé mentale pour fournir des ressources en santé mentale à ses utilisateurs.
"Ce que beaucoup de plates-formes essaient de faire, c'est essentiellement... de s'assurer que l'une d'entre elles, si elle est offensante ou déclenchante pour vous, dispose d'un moyen simple de la modifier en la voyant franchement dans une conception meilleure et plus intuitive", a poursuivi Polgar. . Si les utilisateurs rencontrent quelque chose de potentiellement déclencheur, ils devraient pouvoir "cliquer sur quelque chose" qui les protégera.
D'autre part, les utilisateurs peuvent éviter les contenus susceptibles de nuire à leur santé mentale en ne s'y engageant pas. C'est beaucoup plus facile à dire qu'à faire, cependant, et compte tenu de la difficulté d'éviter une rechute, Lytwyn suggère une mesure plus extrême. Si vous vous retrouvez coincé dans une spirale de traumatismes générés par algorithme, supprimez votre compte et recommencez à zéro.
"Cela réinitialise l'algorithme afin que les comptes de nourriture, les comptes de troubles de l'alimentation ou les comptes de bikini ne clignotent pas constamment sur votre flux", a écrit Lytwyn. Elle a ajouté qu'un patient récent avait ouvert un nouveau compte TikTok et recherché intentionnellement des vidéos sur le design d'intérieur et l'architecture. En regardant, partageant et commentant des vidéos avec des balises spécifiques, le patient de Lytwyn a organisé un flux esthétiquement agréable de contenu non-ED. "Nous ne pouvons pas nous débarrasser complètement de voir un compte comme celui-là, mais si la majorité du flux est une industrie complètement différente, il est alors moins probable qu'il soit influent lorsqu'il apparaît."
Si vous avez déjà accumulé un large public et que vous ne voulez pas avoir à repartir de zéro, vous pouvez également façonner votre page Pour vous pour vous montrer d'autres contenus au lieu de vidéos sur les habitudes alimentaires. En s'engageant intentionnellement avec des vidéos qui ne sont pas centrées sur la nourriture et les régimes, les utilisateurs de TikTok peuvent former l'algorithme pour afficher d'autres contenus à la place.
Certes, un déclencheur possible peut se frayer un chemin dans votre flux organisé de temps en temps. Dans ces cas, a déclaré Lytwyn, il est préférable d'éteindre votre téléphone, d'appeler votre personne de soutien, qu'il s'agisse d'un thérapeute ou d'un être cher, et de demander une distraction.
Si vous vous trouvez piégé dans un réseau de contenu qui vous met mal à l'aise, commencez à suivre les balises qui vous apportent de la joie - des conceptions élaborées d'îles Animal Crossing, des vidéos de tricot apaisantes, des chatons nouveau-nés faisant leurs premiers pas peuvent être de bons points de départ. Ce n'est pas parce que vous rencontrez des vidéos déclenchantes sur TikTok qu'elles doivent constituer l'intégralité de votre page For You.