Incidentes Asociados
"Algospeak" se está volviendo cada vez más común en Internet a medida que las personas buscan eludir los filtros de moderación de contenido en plataformas de redes sociales como TikTok, YouTube, Instagram y Twitch.
Algospeak se refiere a palabras clave o giros de frases que los usuarios han adoptado en un esfuerzo por crear un léxico seguro para la marca que evitará que los sistemas de moderación de contenido eliminen o rebajen sus publicaciones. Por ejemplo, en muchos videos en línea, es común decir "[no vivo] (https://www.tiktok.com/@oliviacadee/video/6965932822976548101)" en lugar de "muerto", "SA" en lugar de "agresión sexual". " o "berenjena picante" en lugar de "vibrador".
A medida que la pandemia empujó a más personas a comunicarse y expresarse en línea, los sistemas algorítmicos de moderación de contenido tuvieron un impacto sin precedentes en las palabras que elegimos, particularmente en TikTok, y dieron lugar a una nueva forma de [lenguaje de Esopo] impulsada por Internet (https: //en.wikipedia.org/wiki/Aesopian_language).
A diferencia de otras plataformas sociales principales, la forma principal en que se distribuye el contenido en TikTok es a través de una página "Para ti" seleccionada algorítmicamente; tener seguidores no garantiza que la gente vea tu contenido. Este cambio ha llevado a los usuarios promedio a adaptar sus videos principalmente al algoritmo, en lugar de a los seguidores, lo que significa que cumplir con las reglas de moderación de contenido es más crucial que nunca.
Cuando estalló la pandemia, las personas en TikTok y otras aplicaciones comenzaron a referirse a ella como la "[gira de reunión de Backstreet Boys] (https://twitter.com/_alialkhatib/status/1472251336661995521?s=20&t=5TXhg_SWcQVGHBoNG-Qj0g)" o llamándolo "panini" o "panda express", ya que las plataformas subestiman los videos que mencionan la pandemia por su nombre en un esfuerzo por combatir la desinformación. Cuando los jóvenes comenzaron a hablar sobre la lucha contra la salud mental, hablaron sobre "[perder la vida] (https://www.thedailybeast.com/gen-z-wont-let-tiktok-stop-them-from-talking-about- suicidio)" para tener conversaciones francas sobre el suicidio sin castigo algorítmico. Las trabajadoras sexuales, que durante mucho tiempo han sido censuradas por los sistemas de moderación, se refieren a sí mismas en TikTok como "contadores" y usan el emoji de maíz como sustituto de la palabra "porno".
A medida que las discusiones de los principales eventos se filtran a través de sistemas algorítmicos de entrega de contenido, más usuarios modifican su lenguaje. Recientemente, al hablar sobre la invasión de Ucrania, las personas en YouTube y TikTok han usado el emoji de girasol para representar el país. Al alentar a los fanáticos a seguirlos en otros lugares, los usuarios dirán "parpadeo en lio" por "enlace en biografía".
Los eufemismos son especialmente comunes en comunidades radicalizadas o dañinas. Las comunidades de trastornos alimentarios a favor de la anorexia han adoptado durante mucho tiempo variaciones de palabras moderadas para evadir las restricciones. Un artículo de la Escuela de Computación Interactiva del Instituto de Tecnología de Georgia descubrió que la complejidad de tales variantes incluso aumentaba con el tiempo. El año pasado, los grupos antivacunas en Facebook [comenzaron a cambiar sus nombres](https://www.nbcnews.com/tech/tech-news/anti-vaccine-groups- Changing-dance-parties-facebook-avoid-detection- rcna1480) a "fiesta de baile" o "fiesta de cena" y los influencers antivacunas en Instagram usaron palabras clave similares, refiriéndose a las personas vacunadas como "nadadores".
Adaptar el lenguaje para evitar el escrutinio es anterior a Internet. Muchas religiones han evitado pronunciar el nombre del diablo para no invocarlo, mientras que las personas que vivían en regímenes represivos desarrollaron palabras clave para discutir temas tabú.
Los primeros usuarios de Internet usaban ortografía alternativa o "leetspeak" para pasar por alto los filtros de palabras en salas de chat, tableros de imágenes, juegos en línea y foros. Pero los sistemas algorítmicos de moderación de contenido son más omnipresentes en la Internet moderna y, a menudo, terminan silenciando a las comunidades marginadas y las discusiones importantes.
Durante el "apocalipsis" de YouTube en 2017, cuando los anunciantes retiraron sus dólares de la plataforma por temor a [contenido inseguro](https://www.theverge.com/2019/4/5/18287318/youtube-logan-paul-pewdiepie- demonetization-adpocalypse-premium-influencers-creators), creadores LGBTQ hablaron sobre desmonetizaron videos por decir la palabra "gay". Algunos comenzaron a usar la palabra menos o a sustituirla por otras para mantener su contenido monetizado. Más recientemente, los usuarios de TikTok han comenzado a decir "cornucopia" en lugar de "homofobia", o dicen que son miembros de "leg booty " comunidad para indicar que son LGBTQ.
"Hay una línea que tenemos que seguir, es una batalla interminable de decir algo y tratar de transmitir el mensaje sin decirlo directamente", dijo Sean Szolek-VanValkenburgh, un creador de TikTok con más de 1,2 millones de seguidores. "Afecta de manera desproporcionada a la comunidad LGBTQIA y la comunidad BIPOC porque somos las personas que creamos esa palabrería y creamos los coloquios".
Las conversaciones sobre la salud de la mujer, el embarazo y los ciclos menstruales en TikTok también se clasifican constantemente a la baja, dijo Kathryn Cross, creadora de contenido de 23 años y fundadora de Anja Health, una empresa emergente que ofrece bancos de sangre del cordón umbilical. Ella reemplaza las palabras "sexo", "período" y "vagina" con otras palabras o las deletrea con símbolos en los subtítulos. Muchos usuarios dicen "nip nops" en lugar de "pezones".
"Me hace sentir que necesito un descargo de responsabilidad porque siento que te hace parecer poco profesional tener estas palabras extrañamente escritas en tus subtítulos", dijo, "especialmente para el contenido que se supone que es serio y con inclinaciones médicas".
Debido a que los algoritmos en línea a menudo marcan el contenido que menciona ciertas palabras, sin contexto, algunos usuarios evitan pronunciarlas por completo, simplemente porque tienen significados alternativos. "Tienes que decir 'saltinas' cuando estás hablando literalmente de galletas ahora", dijo Lodane Erisian, administradora de la comunidad de creadores de Twitch (Twitch [considera la palabra "galleta" como un insulto] (https://www.vice. com/en/article/4awxjw/hasan-piker-supuestamente-prohibido-de-twitch-por-decir-cracker)). Twitch y otras plataformas incluso han ido tan lejos como para eliminar ciertos emotes porque las personas los usaban para comunicar ciertas palabras.
Los usuarios negros y trans, y los de otras comunidades marginadas, a menudo usan algohabla para discutir la opresión que enfrentan, intercambiando palabras por "blanco" o "racista". Algunos están demasiado nerviosos para pronunciar la palabra "blanco" y simplemente acercan la palma de la mano a la cámara para referirse a los blancos.
"La realidad es que las empresas de tecnología han estado usando herramientas automatizadas para moderar el contenido durante mucho tiempo y, aunque se promociona como un aprendizaje automático sofisticado, a menudo es solo una lista de palabras que creen que son problemáticas", dijo Ángel Díaz, profesor de la Facultad de Derecho de la UCLA que estudia la tecnología y la discriminación racial.
En enero, Kendra Calhoun, investigadora postdoctoral en antropología lingüística en UCLA, y Alexia Fawcett, estudiante de doctorado en lingüística en UC Santa Barbara, dieron una presentación sobre el lenguaje en TikTok. Describieron cómo, mediante la autocensura de las palabras en los subtítulos de TikToks, surgieron nuevas palabras en clave algospeak.
Los usuarios de TikTok ahora usan la frase "le dollar bean" en lugar de "lesbiana" porque es la forma en que la función de texto a voz de TikTok pronuncia "Le$bian", una forma censurada de escribir "lesbiana" que los usuarios creen que evadirá la moderación del contenido.
Los algoritmos están causando que el lenguaje humano se desvíe alrededor de ellos en tiempo real. Escucho a este youtuber decir cosas como "el malo desanimó a sus secuaces" porque palabras como "matar" están asociadas a la desmonetización
Evan Greer, director de Fight for the Future, un grupo de defensa de los derechos digitales sin fines de lucro, dijo que tratar de pisotear palabras específicas en las plataformas es una tontería.
"Uno, en realidad no funciona", dijo. "Las personas que usan plataformas para organizar daños reales son bastante buenas para descubrir cómo sortear estos sistemas. Y dos, conduce a daños colaterales del habla literal". Intentar regular el habla humana a una escala de miles de millones de personas en docenas de idiomas diferentes y tratar de lidiar con cosas como el humor, el sarcasmo, el contexto local y la jerga no se puede hacer simplemente subestimando ciertas palabras, argumenta Greer.
"Siento que este es un buen ejemplo de por qué la moderación agresiva nunca será una solución real a los daños que vemos en las prácticas comerciales de las grandes empresas de tecnología", dijo. "Puede ver cuán resbaladiza es esta pendiente. A lo largo de los años, hemos visto más y más demandas equivocadas del público en general de que las plataformas eliminen más contenido rápidamente, sin importar el costo".
Los grandes creadores de TikTok han creado documentos de Google compartidos con listas de cientos de palabras que creen que los sistemas de moderación de la aplicación consideran problemáticas. Otros usuarios mantienen un registro continuo de los términos que creen que han acelerado ciertos videos, tratando de aplicar ingeniería inversa al sistema.
"Zuck Got Me For", un sitio creado por un administrador de cuentas de memes que se hace llamar Ana, es un lugar donde los creadores pueden subir contenido sin sentido que fue prohibido por la moderación de Instagram. algoritmos En un manifiesto sobre su proyecto, escribió: "La libertad creativa es uno de los únicos aspectos positivos de este infierno en línea en llamas en el que todos existimos... A medida que los algoritmos se endurecen, son los creadores independientes los que sufren".
También describe cómo hablar en línea para evadir los filtros. "Si ha violado los términos de servicio, es posible que no pueda usar malas palabras o palabras negativas como 'odio', 'matar', 'feo', 'estúpido', etc.", dijo. "A menudo escribo, 'Yo lo opuesto al amor xyz' en lugar de 'Odio a xyz'".
La Asociación de Creadores en Línea, un grupo de defensa laboral, también emitió una lista de demandas, pidiendo a TikTok más transparencia en la forma en que modera el contenido. "La gente tiene que atenuar su propio lenguaje para no ofender a estos dioses de TikTok que todo lo ven y todo lo saben", dijo Cecelia Gray, creadora de TikTok y cofundadora de la organización.
TikTok ofrece [un centro de recursos en línea](https://www.tiktok.com/creators/creator-portal/en-us/how-tiktok-works/whats-the-for-you-page-and-how-do -i-get-there/) para creadores que buscan más información sobre sus sistemas de recomendación, y ha abierto múltiples centros de transparencia y responsabilidad donde los huéspedes pueden aprender cómo funciona el algoritmo de la aplicación.
Vince Lynch, director ejecutivo de IV.AI, una plataforma de inteligencia artificial para comprender el lenguaje, dijo que en algunos países donde la moderación es más estricta, las personas terminan construyendo nuevos dialectos para comunicarse. "Se convierte en sublenguajes reales", dijo.
Pero a medida que algospeak se vuelve más popular y las palabras de reemplazo se transforman en jerga común, los usuarios descubren que tienen que ser cada vez más creativos para evadir los filtros. "Se convierte en un juego de golpear al topo", dijo Gretchen McCulloch, lingüista y autora de "[Because Internet](https://read.amazon.com/kp/embed?asin=B076GNS3J4&preview=newtab&linkCode=kpe&ref_ =cm_sw_r_kb_dp_HSPHNFZFAPTB93G0W6A9&tag=thewaspos09-20)," un libro sobre cómo Internet ha moldeado el lenguaje. A medida que las plataformas comienzan a notar que las personas dicen "seggs" en lugar de "sex", por ejemplo, algunos usuarios informan que creen que incluso las palabras de reemplazo se marcan.
"Terminamos creando nuevas formas de hablar para evitar este tipo de moderación", dijo Díaz de la Facultad de Derecho de la UCLA, "luego terminamos adoptando algunas de estas palabras y se vuelven vernáculo común. Todo nace de este esfuerzo por resistir moderación."
Esto no significa que todos los esfuerzos para erradicar el mal comportamiento, el acoso, el abuso y la desinformación sean infructuosos. Pero Greer argumenta que son los problemas de raíz los que deben priorizarse. “La moderación agresiva nunca será una solución real a los daños que vemos en las prácticas comerciales de las grandes empresas tecnológicas”, dijo. "Esa es una tarea para los formuladores de políticas y para construir mejores cosas, mejores herramientas, mejores protocolos y mejores plataformas".
En última instancia, agregó, "nunca podrás desinfectar Internet".