Incidents associés
"Algospeak" devient de plus en plus courant sur Internet alors que les gens cherchent à contourner les filtres de modération de contenu sur les plateformes de médias sociaux telles que TikTok, YouTube, Instagram et Twitch.
Algospeak fait référence aux mots de code ou aux tournures de phrases que les utilisateurs ont adoptés dans le but de créer un lexique sans danger pour la marque qui évitera que leurs messages soient supprimés ou déclassés par les systèmes de modération de contenu. Par exemple, dans de nombreuses vidéos en ligne, il est courant de dire "unlive" plutôt que "mort", "SA" au lieu de "agression sexuelle, " ou " aubergine épicée " au lieu de " vibromasseur ".
Alors que la pandémie a poussé davantage de personnes à communiquer et à s'exprimer en ligne, les systèmes algorithmiques de modération de contenu ont eu un impact sans précédent sur les mots que nous choisissons, en particulier sur TikTok, et ont donné naissance à une nouvelle forme de [langue ésopienne](https: //en.wikipedia.org/wiki/Aesopian_language).
Contrairement à d'autres plates-formes sociales grand public, le contenu est principalement distribué sur TikTok via une page "Pour vous" organisée de manière algorithmique ; avoir des abonnés ne garantit pas que les gens verront votre contenu. Ce changement a conduit les utilisateurs moyens à adapter leurs vidéos principalement à l'algorithme plutôt qu'à un suivi, ce qui signifie que le respect des règles de modération du contenu est plus crucial que jamais.
Lorsque la pandémie a éclaté, les utilisateurs de TikTok et d'autres applications ont commencé à l'appeler "Backstreet Boys reunion tour" ou l'appelant le "panini" ou "panda express" car les plateformes ont déclassé les vidéos mentionnant la pandémie par son nom dans un effort pour lutter contre la désinformation. Lorsque les jeunes ont commencé à discuter de leurs problèmes de santé mentale, ils ont parlé de "[devenir non vivant](https://www.thedailybeast.com/gen-z-wont-let-tiktok-stop-them-from-talking-about- suicide)" afin d'avoir des conversations franches sur le suicide sans punition algorithmique. Les travailleuses du sexe, qui ont longtemps été censurées par les systèmes de modération, se désignent sur TikTok comme "comptables" et utilisent l'emoji de maïs comme substitut de le mot « porno ».
Alors que les discussions sur les événements majeurs sont filtrées par des systèmes de diffusion de contenu algorithmique, de plus en plus d'utilisateurs modifient leur langage. Récemment, en discutant de l'invasion de l'Ukraine, les gens sur YouTube et TikTok ont utilisé l'emoji tournesol pour signifier le pays. Lorsqu'ils encouragent les fans à les suivre ailleurs, les utilisateurs diront "blink in lio" pour "link in bio".
Les euphémismes sont particulièrement courants dans les communautés radicalisées ou nuisibles. Les communautés de troubles de l'alimentation pro-anorexie ont depuis longtemps adopté des variantes de mots modérés pour échapper aux restrictions. Un article de la School of Interactive Computing du Georgia Institute of Technology a révélé que la complexité de ces variantes augmentait même avec le temps. L'année dernière, des groupes anti-vaccins sur Facebook [ont commencé à changer de nom](https://www.nbcnews.com/tech/tech-news/anti-vaccine-groups-changing-dance-parties-facebook-avoid-detection- rcna1480) à une "soirée dansante" ou à un "dîner" et les influenceurs anti-vaccins sur Instagram ont utilisé des mots de code similaires, désignant les personnes vaccinées comme des "nageurs".
Adapter le langage pour éviter l'examen est antérieur à Internet. De nombreuses religions ont évité de prononcer le nom du diable de peur de le convoquer, tandis que les personnes vivant dans des régimes répressifs ont développé des mots codés pour discuter de sujets tabous.
Les premiers internautes utilisaient une orthographe alternative ou "leetspeak" pour contourner les filtres de mots dans les salons de discussion, les tableaux d'images, les jeux en ligne et les forums. Mais les systèmes algorithmiques de modération de contenu sont plus répandus sur l'Internet moderne et finissent souvent par réduire au silence les communautés marginalisées et les discussions importantes.
Lors de l'"adpocalypse" de YouTube en 2017, lorsque les annonceurs ont retiré leur argent de la plate-forme par crainte de [contenu dangereux](https://www.theverge.com/2019/4/5/18287318/youtube-logan-paul-pewdiepie- demonetization-adpocalypse-premium-influencers-creators), les créateurs LGBTQ ont parlé de ayant des vidéos démonétisées pour avoir prononcé le mot "gay". Certains ont commencé à utiliser le mot moins ou à en remplacer d'autres pour garder leur contenu monétisé. Plus récemment, les utilisateurs de TikTok ont commencé à dire "corne d'abondance" plutôt qu'"homophobie" ou à se dire membres du "leg booty " communauté pour signifier qu'ils sont LGBTQ.
"Il y a une ligne que nous devons suivre, c'est une bataille sans fin pour dire quelque chose et essayer de faire passer le message sans le dire directement", a déclaré Sean Szolek-VanValkenburgh, un créateur de TikTok avec plus de 1,2 million d'abonnés. "Cela affecte de manière disproportionnée la communauté LGBTQIA et la communauté BIPOC parce que nous sommes les personnes qui créent ce verbiage et qui organisent les colloques."
Les conversations sur la santé des femmes, la grossesse et les cycles menstruels sur TikTok sont également systématiquement déclassées, a déclaré Kathryn Cross, créatrice de contenu de 23 ans et fondatrice d'Anja Health, une start-up proposant des banques de sang de cordon ombilical. Elle remplace les mots « sexe », « règles » et « vagin » par d'autres mots ou les épelle avec des symboles dans les légendes. De nombreux utilisateurs disent "nip nops" plutôt que "mamelons".
"Cela me donne l'impression d'avoir besoin d'une clause de non-responsabilité parce que j'ai l'impression que cela ne vous donne pas l'air professionnel d'avoir ces mots étrangement orthographiés dans vos légendes", a-t-elle déclaré, "en particulier pour le contenu censé être sérieux et médicalement incliné."
Étant donné que les algorithmes en ligne signalent souvent le contenu mentionnant certains mots, sans contexte, certains utilisateurs évitent complètement de les prononcer, simplement parce qu'ils ont des significations alternatives. "Vous devez dire "salines" quand vous parlez littéralement de crackers maintenant", a déclaré Lodane Erisian, responsable de la communauté des créateurs de Twitch (Twitch [considére le mot "cracker" comme une insulte](https://www.vice. com/en/article/4awxjw/hasan-piker-allegedly-banned-from-twitch-for-saying-cracker)). Twitch et d'autres plateformes sont même allées jusqu'à supprimer certaines emotes parce que les gens les utilisaient pour communiquer certains mots.
Les utilisateurs noirs et trans, ainsi que ceux d'autres communautés marginalisées, utilisent souvent l'algospeak pour discuter de l'oppression à laquelle ils sont confrontés, en remplaçant les mots par "blanc" ou "raciste". Certains sont trop nerveux pour prononcer le mot "blanc" et tiennent simplement leur paume vers la caméra pour signifier les Blancs.
"La réalité est que les entreprises technologiques utilisent des outils automatisés pour modérer le contenu depuis très longtemps et bien qu'il soit présenté comme cet apprentissage automatique sophistiqué, il ne s'agit souvent que d'une liste de mots qu'ils pensent être problématiques", a déclaré Ángel Díaz, maître de conférences à la faculté de droit de l'UCLA qui étudie la technologie et la discrimination raciale.
En janvier, Kendra Calhoun, chercheuse postdoctorale en anthropologie linguistique à UCLA, et Alexia Fawcett, doctorante en linguistique à UC Santa Barbara, ont fait une présentation sur le langage sur TikTok. Ils ont expliqué comment, en s'autocensurant dans les sous-titres de TikToks, de nouveaux mots de code en algospeak ont émergé.
Les utilisateurs de TikTok utilisent désormais l'expression "le dollar bean" au lieu de "lesbian" car c'est ainsi que la fonction de synthèse vocale de TikTok prononce "Le$bian", une manière censurée d'écrire "lesbian" qui, selon les utilisateurs, échappera à la modération du contenu.
Les algorithmes font que le langage humain se réoriente autour d'eux en temps réel. J'écoute ce youtuber dire des choses comme "le méchant a tué ses sbires" parce que des mots comme "tuer" sont associés à la démonétisation
Evan Greer, directeur de Fight for the Future, un groupe de défense des droits numériques à but non lucratif, a déclaré qu'essayer d'écraser des mots spécifiques sur les plateformes est une course folle.
"Premièrement, cela ne fonctionne pas réellement", a-t-elle déclaré. "Les personnes qui utilisent des plates-formes pour organiser de vrais dommages sont assez douées pour comprendre comment contourner ces systèmes. Et deuxièmement, cela entraîne des dommages collatéraux du discours littéral." Essayer de réguler la parole humaine à l'échelle de milliards de personnes dans des dizaines de langues différentes et essayer de faire face à des choses telles que l'humour, le sarcasme, le contexte local et l'argot ne peut se faire en déclassant simplement certains mots, affirme Greer.
"J'ai l'impression que c'est un bon exemple de la raison pour laquelle la modération agressive ne sera jamais une véritable solution aux dommages que nous constatons dans les pratiques commerciales des grandes entreprises technologiques", a-t-elle déclaré. "Vous pouvez voir à quel point cette pente est glissante. Au fil des ans, nous avons vu de plus en plus de demandes erronées du grand public pour que les plateformes suppriment plus de contenu rapidement, quel que soit le coût."
Les créateurs de Big TikTok ont créé des documents Google partagés avec des listes de centaines de mots qu'ils jugent problématiques pour les systèmes de modération de l'application. D'autres utilisateurs conservent un décompte des termes qui, selon eux, ont étranglé certaines vidéos, essayant de désosser le système.
"Zuck Got Me For", un site créé par un administrateur de compte meme qui s'appelle Ana, est un endroit où les créateurs peuvent télécharger du contenu absurde qui a été interdit par la modération d'Instagram algorithmes. Dans un manifeste sur son projet, elle a écrit : "La liberté de création est l'un des seuls côtés positifs de cet enfer en ligne flamboyant dans lequel nous existons tous... Alors que les algorithmes se resserrent, ce sont les créateurs indépendants qui souffrent."
Elle explique également comment parler en ligne de manière à échapper aux filtres. "Si vous avez enfreint les conditions d'utilisation, vous ne pourrez peut-être pas utiliser de jurons ou de mots négatifs comme" haine "," tuer "," laid "," stupide ", etc.", a-t-elle déclaré. "J'écris souvent "Je contraire de l'amour xyz" au lieu de "Je déteste xyz"."
The Online Creators' Association, un groupe de défense des droits des travailleurs, a également publié une liste de revendications, demandant à TikTok plus de transparence dans la manière dont il modère le contenu. "Les gens doivent atténuer leur propre langage pour ne pas offenser ces dieux TikTok qui voient tout et qui savent tout", a déclaré Cecelia Gray, créatrice de TikTok et cofondatrice de l'organisation.
TikTok propose [un centre de ressources en ligne](https://www.tiktok.com/creators/creator-portal/en-us/how-tiktok-works/whats-the-for-you-page-and-how-do -i-get-there/) pour les créateurs qui souhaitent en savoir plus sur ses systèmes de recommandation, et a ouvert plusieurs des centres de transparence et de responsabilité où les clients peuvent apprendre comment fonctionne l'algorithme de l'application.
Vince Lynch, directeur général de IV.AI, une plate-forme d'IA pour comprendre le langage, a déclaré que dans certains pays où la modération est plus lourde, les gens finissent par construire de nouveaux dialectes pour communiquer. "Cela devient de véritables sous-langages", a-t-il déclaré.
Mais à mesure que l'algospeak devient plus populaire et que les mots de remplacement se transforment en argot commun, les utilisateurs constatent qu'ils doivent faire preuve de plus en plus de créativité pour échapper aux filtres. "Cela se transforme en un jeu de coup de taupe", a déclaré Gretchen McCulloch, linguiste et auteur de "[Because Internet](https://read.amazon.com/kp/embed?asin=B076GNS3J4&preview=newtab&linkCode=kpe&ref_ =cm_sw_r_kb_dp_HSPHNFZFAPTB93G0W6A9&tag=thewaspos09-20)," un livre sur la façon dont Internet a façonné le langage. Alors que les plateformes commencent à remarquer que les gens disent "seggs" au lieu de "sexe", par exemple, certains utilisateurs signalent qu'ils pensent que même des mots de remplacement sont signalés.
"Nous finissons par créer de nouvelles façons de parler pour éviter ce genre de modération", a déclaré Díaz de la faculté de droit de l'UCLA, "puis nous finissons par adopter certains de ces mots et ils deviennent une langue vernaculaire commune. Tout est né de cet effort pour résister modération."
Cela ne signifie pas que tous les efforts pour éradiquer les mauvais comportements, le harcèlement, les abus et la désinformation sont vains. Mais Greer soutient que ce sont les problèmes fondamentaux qui doivent être prioritaires. "La modération agressive ne sera jamais une véritable solution aux dommages que nous constatons dans les pratiques commerciales des grandes entreprises technologiques", a-t-elle déclaré. "C'est une tâche pour les décideurs politiques et pour construire de meilleures choses, de meilleurs outils, de meilleurs protocoles et de meilleures plates-formes."
En fin de compte, a-t-elle ajouté, "vous ne pourrez jamais désinfecter Internet".