Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4385

Incidentes Asociados

Incidente 8731 Reporte
YouTube Algorithms Allegedly Amplify Eating Disorder Content to Adolescent Girls

Loading...
Un nuevo estudio revela que los algoritmos de YouTube promocionan constantemente contenidos sobre trastornos alimentarios y autolesiones entre las adolescentes
cbsnews.com · 2024

Anna Mockel tenía 14 años y de repente se obsesionó con perder peso. Era la primavera de 2020 y acababa de graduarse de octavo grado de forma remota. Confinada en casa y nerviosa por la transición a la escuela secundaria el próximo otoño, sacrificó innumerables horas de ese verano de encierro por COVID yendo de una aplicación de redes sociales a otra.

Anna pasó mucho tiempo en YouTube "sin buscar nada en particular", solo mirando lo que aparecía en su feed. Recuerda que los pensamientos en espiral comenzaron cuando veía videos en los que aparecían chicas un poco mayores e invariablemente delgadas. Cuanto más miraba Anna, más saturaban su feed estos videos y más decidida estaba a parecerse a las chicas de los videos.

A medida que hacía clic y tocaba, el panel "Up Next" de YouTube de videos recomendados comenzó a transformarse de contenido presentando chicas delgadas a "instrucciones" para perder peso. Los videos de dieta y ejercicio comenzaron a dominar la cuenta de Anna. A medida que seguía mirando, dice, el contenido se intensificó, hasta que su muro se llenó de videos que glorificaban cuerpos de apariencia esquelética y trucos para mantener una dieta diaria de 500 calorías. (A las adolescentes se les recomienda una ingesta calórica diaria de 2200).

"No sabía que eso existiera en Internet", dice Anna sobre el contenido sobre trastornos alimentarios que le recomendaron. "Mucho de eso apareció en mi muro, y luego me sentí atraída por eso porque era lo que ya me estaba sucediendo".

Anna copió lo que vio, restringió su dieta y comenzó a perder peso a un ritmo alarmante. A los 14 años, dice que era consciente de los trastornos alimentarios, pero "no unió los puntos" hasta que le diagnosticaron anorexia. Durante los años siguientes, Anna sufrió dos hospitalizaciones y pasó tres meses en un centro de tratamiento residencial antes de comenzar su recuperación a los 16 años.

Ahora, con 18 años y en el último año de secundaria, afirma que las redes sociales, YouTube en particular, perpetuaron su trastorno alimentario.

"YouTube se convirtió en una comunidad de personas que compiten con los trastornos alimentarios", dice. "Y me mantuvo en la mentalidad de que la [anorexia] no era un problema porque muchas otras personas en línea estaban haciendo lo mismo".

Ahora, una nueva investigación confirma que este contenido le fue entregado a Anna intencionalmente. Un informe publicado el martes por el Centro para Contrarrestar el Odio Digital afirma que cuando los usuarios de YouTube muestran signos de estar interesados en la dieta y la pérdida de peso, casi el 70% de los videos impulsados por los algoritmos de la plataforma recomiendan contenido que probablemente empeora o crea ansiedad sobre la imagen corporal.

Además, los videos tienen un promedio de 344.000 vistas cada uno (casi 60 veces más que el video promedio de YouTube) y vienen adornados con anuncios de grandes marcas como Nike, T-Mobile y Grammarly. No está claro si las empresas están al tanto de la ubicación de los anuncios.

"No podemos seguir permitiendo que las plataformas de redes sociales experimenten con las nuevas generaciones a medida que alcanzan la mayoría de edad", dice James P. Steyer, fundador y director ejecutivo de Common Sense Media, una organización sin fines de lucro dedicada a educar a las familias sobre la seguridad en línea.

Dice que estas plataformas están diseñadas para mantener la atención de los espectadores incluso si eso significa amplificar contenido dañino para los menores.

El informe, titulado "El algoritmo de anorexia de YouTube", examina los primeros 1.000 videos que una adolescente recibiría en el panel "A continuación" cuando vea videos sobre pérdida de peso, dieta o ejercicio por primera vez.

Para recopilar los datos, los investigadores del CCDH crearon un perfil de YouTube de una niña de 13 años y realizaron 100 búsquedas en la plataforma para compartir videos utilizando palabras clave populares relacionadas con los trastornos alimentarios, como "ED WIEIAD" (trastorno alimentario, lo que como en un día), "dieta ABC" (dieta de entrenamiento para la anorexia) y "alimentos seguros" (una referencia a alimentos con pocas o ninguna caloría). Luego, el equipo de investigación analizó las 10 recomendaciones principales que el algoritmo de YouTube envió al panel "A continuación".

Los resultados indicaron que casi dos tercios (638) de los videos recomendados empujaron al hipotético usuario de 13 años a un mayor contenido sobre trastornos alimentarios o pérdida de peso problemática; un tercio (344) de las recomendaciones de YouTube fueron consideradas dañinas por el CCDH, lo que significa que el contenido promovía o glorificaba los trastornos alimentarios, contenía acoso basado en el peso o mostraba un comportamiento imitable; 50 de los videos, según el estudio, incluían contenido de autolesión o suicidio.

"Existe una cultura antihumana creada por plataformas de redes sociales como YouTube", dice Imran Ahmed, fundador y director ejecutivo del Centro para Contrarrestar el Odio Digital. "Hoy en día, los niños son básicamente reeducados por algoritmos, por empresas que les enseñan y les convencen de que se mueran de hambre".

Ahmed dice que el estudio ilustra la naturaleza sistémica del problema, que YouTube, propiedad de Google, está violando sus propias políticas al permitir este contenido en la plataforma.

YouTube es la red social más popular entre los adolescentes de Estados Unidos, por delante de TikTok e Instagram, según el Pew Research Center. Tres cuartas partes de los adolescentes estadounidenses dicen que usan la plataforma al menos una vez al día. YouTube no requiere que el usuario cree una cuenta para ver el contenido.

El Social Media Victims Law Center, un bufete de abogados con sede en Seattle fundado en respuesta a los 2021 Facebook Papers, ha presentado miles de demandas contra empresas de redes sociales, incluido YouTube. Más de 20 de esas demandas alegan que YouTube está diseñado para ser intencionalmente adictivo y perpetuar los trastornos alimentarios en sus usuarios, particularmente entre las adolescentes.

El bufete de abogados conectó a 60 Minutes con una clienta de 17 años. Su experiencia refleja la de Anna.

"YouTube me enseñó cómo tener un trastorno alimentario", dice la joven de 17 años, cuya demanda acusa a YouTube de perpetuar deliberadamente la anorexia. Dice que creó una cuenta de YouTube cuando tenía 12 años. Iniciaba sesión para ver videos de perros, desafíos de gimnasia y tutoriales de cocina. Luego, dice, empezó a ver videos de chicas bailando y haciendo ejercicio. Hacía clic. YouTube le recomendaba más videos de chicas haciendo ejercicios más extremos, que se convirtieron en videos de dietas y pérdida de peso. Siguió mirando; siguió haciendo clic.

Dice que su feed se convirtió en un embudo de contenido sobre trastornos alimentarios, un flujo de personas influyentes que promocionaban dietas extremas y formas de "mantenerse delgada". Pasaba cinco horas al día en YouTube, aprendiendo términos como "bulimia" y "ARFID" (trastorno de ingesta alimentaria por evitación/restricción). Aprendió lo que significaba "purgar" y "restringir" los alimentos; se preocupó profundamente por la ingesta calórica y su IMC (índice de masa corporal).

Cuando estaba en séptimo grado, dejó de comer. Le diagnosticaron anorexia poco después, y durante los siguientes cinco años, dice, pasó más tiempo fuera de la escuela que en ella. Ahora, en tercer año de secundaria, ha sido hospitalizada cinco veces y pasó meses en tres centros de tratamiento residencial tratando de recuperarse del trastorno alimentario.

"Esto me ha quitado prácticamente la vida", reflexiona.

Cuando se le preguntó por qué se emplean algoritmos no para proteger a los usuarios jóvenes sino para recomendar intencionalmente contenido sobre trastornos alimentarios, YouTube se negó a hacer comentarios.

El sitio para compartir videos dice que "trabaja continuamente con expertos en salud mental para refinar [su] enfoque en cuanto a contenido recomendado para adolescentes". En abril de 2023, la plataforma amplió sus políticas sobre trastornos alimentarios y contenido de autolesión, agregando la capacidad de restringir la edad de los videos que contienen trastornos alimentarios "educativos, documentales, científicos o artísticos" o que discuten "detalles que pueden ser desencadenantes para los espectadores en riesgo". Según esta política, estos videos pueden no estar disponibles para los espectadores menores de 18 años.

YouTube ha tomado medidas para bloquear ciertos términos de búsqueda como "thinspiration", una palabra que se utiliza para encontrar imágenes de cuerpos demacrados. Sin embargo, el estudio del CCDH descubrió que dichos videos aún aparecen en el panel "Up Next" (Siguiente). Y los usuarios aprenden que al sustituir la letra "O" por un cero o la letra "I" por un signo de exclamación, estos términos aún se pueden buscar en YouTube. Un video señalado en el informe como glorificador de formas corporales esqueléticas tenía 1,1 millones de vistas en el momento del análisis; ahora tiene 1,6 millones.

Como parte de la investigación, el CCDH marcó 100 videos de YouTube que promovían trastornos alimentarios, acoso basado en el peso o mostraban comportamientos imitables. YouTube eliminó o restringió por edad solo 18 de esos videos.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd