Incidentes Asociados
Cuando el investigador de inteligencia artificial Marc Faddoul se unió a TikTok hace unos días, [vio algo preocupante] (https://twitter.com/MarcFaddoul/status/1232014908536938498): Cuando siguió una nueva cuenta, los perfiles recomendados por TikTok parecían inquietantes, físicamente similar a la foto de perfil de la primera cuenta. Seguir a una mujer rubia de apariencia joven, por ejemplo, arrojó recomendaciones para seguir a más mujeres rubias de apariencia joven.
Faddoul, científico investigador de la Universidad de California Berkeley, quería investigar cómo TikTok, [una plataforma de redes sociales con sede en China](https://www.vox.com/culture/2018/12/10/18129126/tiktok -app-musically-meme-cringe) popular entre los adolescentes, funcionó. Entonces comenzó con una cuenta nueva, no vinculada a perfiles en ninguna otra plataforma. Y mientras seguía varias cuentas, Faddoul observó que las imágenes de perfil de las cuentas recomendadas parec ían muy similares a la imagen de perfil de la cuenta inicial.
Seguir a hombres negros dio lugar a recomendaciones para seguir a más hombres negros. Seguir a los hombres blancos con barba produjo recomendaciones para más hombres blancos con barba. Seguir a personas mayores generó recomendaciones para otras personas mayores. Y así sucesivamente.
El experimento TikTok de Faddoul no fue un estudio científico. Simplemente representa la experiencia inicial de un investigador individual en la plataforma. Recode revisó las capturas de pantalla enviadas por Faddoul y realizó algunas de las mismas búsquedas que él hizo. Esas búsquedas produjeron resultados similares: los seguimientos recomendados tendían a parecerse físicamente a la cuenta inicial seguida, aunque no siempre eran exactamente las mismas cuentas que aparecían en los resultados de Faddoul.
Recode también siguió algunas otras cuentas seleccionadas al azar, pero esas no necesariamente produjeron recomendaciones que compartieran una identidad fácilmente observable. A veces había similitudes en el relato seguido y los recomendados, pero esos trenes obviamente no eran físicos. En cambio, todas las cuentas recomendadas compartían un interés, como musicales de Broadway, actividades al aire libre o mascotas.
Vale la pena señalar que al menos [otra persona] (https://twitter.com/r_solymosi/status/1232165730986016768), comentando [el hilo de Twitter] (https://twitter.com/MarcFaddoul/status/1232014908536938498) en que Faddoul publicó originalmente sus resultados, dijo que no podía replicar sus resultados. Sin embargo, la experiencia de Faddoul plantea la cuestión de cómo funcionan estos motores de recomendación en las plataformas de redes sociales. Cuando sigue a alguien con ciertos rasgos demográficos, ¿por qué podría obtener recomendaciones de personas con esos mismos identificadores físicos? ¿Y cómo afecta esto a las experiencias de las personas en las redes sociales?
Las plataformas a menudo intentan crear algoritmos de recomendación que produzcan resultados que coincidan con sus intereses. Pero estas recomendaciones pueden tener consecuencias no deseadas y pueden generar inquietudes sobre [las llamadas burbujas de filtro] (https://www.amazon.com/Filter-Bubble-Personalized-Changing-Think/dp/0143121235). (Una burbuja de filtro es el resultado de contenido de Internet altamente personalizado que conduce a una sensación de aislamiento). Si solo sigue a personas en las redes sociales que se parecen a usted o comparten sus intereses, por ejemplo, puede quedarse atrapado en una retroalimentación interminable. bucle que podría distorsionar su visión del mundo. Si la experiencia de Faddoul es representativa de la mayoría de las personas en la plataforma, TikTok podría estar permitiendo el mismo problema que ha afectado a otras plataformas de redes sociales más antiguas como Twitter y Facebook.
TikTok rechazó los hallazgos de Faddoul.
“No hemos podido replicar resultados similares a estos reclamos”, dijo un portavoz de TikTok. "Nuestra recomendación de cuentas a seguir se basa en el comportamiento del usuario: los usuarios que siguen la cuenta A también siguen la cuenta B, por lo que si sigues a A, es probable que también quieras seguir a B".
Este proceso se conoce comúnmente como filtrado colaborativo, un tipo de algoritmo de recomendación que también puede aparecer en [aplicaciones de citas](https://www.vox.com/recode/2020/2/14/21137096/how-tinder-matches -work-algorithm-grindr-bumble-hinge-algorithms). La forma en que funciona este tipo de algoritmo podría explicar sus resultados. Faddoul admitió rápidamente que el filtrado colaborativo podría estar en juego.
“Lo que hace el filtrado colaborativo es que si sigo una cuenta, verá a todas las demás personas que siguieron esa misma cuenta”, explicó Faddoul. “Y el algoritmo va a seleccionar las cuentas para las cuales [hay] mucha superposición entre los usuarios que han seguido esta cuenta que acabo de seguir”.
Sin embargo, Faddoul también le dijo a Recode que cree que es más probable que TikTok esté usando algo que él llama caracterización automática. Este tipo de algoritmo de recomendación podría tomar "señales" de las imágenes de perfil para encontrar imágenes de perfil con atributos similares. Este tipo de señales serían correlaciones entre las imágenes, que podrían corresponder a cualquier cosa, desde el color de la piel hasta tener barba. El algoritmo simplemente busca similitudes en las fotos o perfiles. Vale la pena señalar que en nuestras búsquedas, Recode encontró muchas recomendaciones que no tenían ningún parecido físico con la cuenta inicial seguida.
“Lo que sospecho que está sucediendo es que TikTok presenta la imagen de perfil”, dice, “y usa estas funciones en el motor de recomendación”.
Pero independientemente de cómo se muestren resultados como estos, un problema más general con los algoritmos de recomendación es que, en última instancia, pueden confirmar [nuestros sesgos preexistentes] (https://www.vox.com/policy-and-politics/2017/3/29 /14983026/social-media-polarization-study-nber).
“Los motores de recomendación tienden a crear entornos de información selectivos”, dijo Faddoul a Recode. “En el caso de TikTok, es un poco diferente, porque las personas no necesariamente buscan información”.
También señala que dicho sistema podría crear un ciclo de retroalimentación problemático. Si los influencers más seguidos tienden a ser blancos, y aquellos que son recomendados después de seguir a un influencer blanco también son blancos, podría alejar a los creadores que son personas de color.
¿Tienes curiosidad por saber cómo podría funcionar? El año pasado, un equipo respaldado por Mozilla creó un juego en línea llamado "Monster Match", que muestra cómo sus preferencias iniciales pueden reducir los resultados que ve en el futuro. Puedes [jugar el juego por ti mismo] (https://d2v2m3z6005g8q.cloudfront.net/).
Los algoritmos de recomendación en las redes sociales han sido controvertidos durante mucho tiempo. Rara vez sabemos cómo funcionan, y sus resultados pueden ser confusos y, a veces, incluso espeluznantes. Tome la función [Personas que quizás conozca] de Facebook (https://gizmodo.com/people-you-may-know-a-controversial-facebook-features-1827981959), una barra lateral en la plataforma que sugiere personas que podría querer ser amigos con. Como informó Gizmodo hace dos años, parece basarse en todo tipo de datos recopilados de los usuarios para predecir conexiones potenciales. Pero el sistema no siempre recomienda personas que realmente conoces, o al menos, no está claro cómo puedes estar conectado. A veces, puede recomendar personas que preferiríamos no conocer, como [los pacientes del mismo psiquiatra] (https://splinternews.com/facebook-recommended-that-this-psychiatrists-patients-f-1793861472).
Todavía no hay evidencia de que haya algo nefasto en juego en el algoritmo de recomendación de TikTok. Pero los resultados de Faddoul son extraños. También son un recordatorio de que a menudo sabemos poco acerca de cómo los algoritmos detrás de escena en nuestras plataformas tecnológicas favoritas recomiendan otro contenido y que pueden terminar confirmando nuestros sesgos con más frecuencia de lo que nos gustaría pensar.