Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4385

Incidents associés

Incident 8731 Rapport
YouTube Algorithms Allegedly Amplify Eating Disorder Content to Adolescent Girls

Loading...
Les algorithmes de YouTube proposent régulièrement des contenus sur les troubles alimentaires et l'automutilation aux adolescentes, selon une nouvelle étude
cbsnews.com · 2024

Anna Mockel avait 14 ans et était soudainement obsédée par la perte de poids. C'était au printemps 2020, et elle venait de terminer sa huitième année à distance. Confinée à la maison et nerveuse à l'idée de passer au lycée à l'automne prochain, elle a sacrifié d'innombrables heures pendant l'été de confinement à jongler entre les applications de médias sociaux.

Anna a passé beaucoup de temps sur YouTube « sans rien chercher en particulier », juste à regarder ce qui apparaissait dans son fil d'actualité. Elle se souvient que les pensées tourbillonnantes ont commencé lorsqu'elle regardait des vidéos mettant en scène des filles un peu plus âgées et invariablement maigres. Plus Anna regardait, plus ces vidéos encombraient son fil d'actualité, et plus elle était déterminée à ressembler aux filles des vidéos.

Au fur et à mesure qu'elle cliquait et appuyait, le panneau de vidéos recommandées « Up Next » de YouTube a commencé à se transformer du contenu mettant en scène des filles maigres en « conseils » pour perdre du poids. Les vidéos de régime et d'exercice ont commencé à dominer le compte d'Anna. Au fur et à mesure qu'elle regardait, dit-elle, le contenu s'est intensifié, jusqu'à ce que son fil d'actualité soit inondé de vidéos glorifiant des corps squelettiques et d'astuces pour maintenir un régime quotidien de 500 calories. (Il est recommandé aux adolescentes d'en consommer 2 200 par jour.)

"Je ne savais même pas que cela existait en ligne", dit Anna à propos du contenu sur les troubles alimentaires qui lui était recommandé. "Une grande partie de ces contenus apparaissaient simplement dans mon fil d'actualité, et je me suis alors tournée vers eux parce que c'était ce qui se passait déjà pour moi".

Anna a copié ce qu'elle voyait, a restreint son régime alimentaire et a commencé à perdre du poids à un rythme alarmant. À 14 ans, elle dit qu'elle était consciente des troubles alimentaires, mais qu'elle "n'avait pas fait le lien" jusqu'à ce qu'on lui diagnostique une anorexie. Au cours des années suivantes, elle a dû subir deux hospitalisations et passer trois mois dans un centre de traitement résidentiel avant de commencer sa convalescence à l'âge de 16 ans.

A 18 ans et en dernière année de lycée, elle affirme que les réseaux sociaux, YouTube en particulier, ont perpétué son trouble alimentaire.

"YouTube est devenu une communauté de personnes qui sont en compétition avec les troubles alimentaires", dit-elle. "Et cela m'a permis de garder à l'esprit que l'anorexie n'était pas un problème parce que tant d'autres personnes en ligne faisaient la même chose".

De nouvelles recherches confirment désormais que ce contenu a été proposé à Anna intentionnellement. Un rapport publié mardi par le Center for Countering Digital Hate affirme que lorsque les utilisateurs de YouTube montrent des signes d'intérêt pour le régime et la perte de poids, près de 70 % des vidéos poussées par les algorithmes de la plateforme recommandent des contenus susceptibles d'aggraver ou de créer des anxiétés concernant l'image corporelle.

De plus, les vidéos sont visionnées en moyenne 344 000 fois chacune, soit près de 60 fois plus que la vidéo moyenne sur YouTube, et sont accompagnées de publicités de grandes marques comme Nike, T-Mobile et Grammarly. On ne sait pas si les entreprises sont au courant de ces placements publicitaires.

« Nous ne pouvons pas continuer à laisser les plateformes de médias sociaux expérimenter sur les nouvelles générations à mesure qu'elles grandissent », déclare James P. Steyer, fondateur et PDG de Common Sense Media, une organisation à but non lucratif qui se consacre à l'éducation des familles sur la sécurité en ligne. 

Il affirme que ces plateformes sont conçues pour retenir l'attention des spectateurs, même si cela signifie amplifier le contenu préjudiciable aux mineurs. 

Le rapport, intitulé « L'algorithme de l'anorexie de YouTube », examine les 1 000 premières vidéos qu'une adolescente recevrait dans le panneau « À suivre » lorsqu'elle regarde pour la première fois des vidéos sur la perte de poids, le régime alimentaire ou l'exercice physique.

Pour recueillir les données, les chercheurs du CCDH ont créé le profil YouTube d'une jeune fille de 13 ans et ont effectué 100 recherches sur la plateforme de partage de vidéos en utilisant des mots-clés populaires liés aux troubles de l'alimentation tels que « ED WIEIAD » (trouble de l'alimentation, ce que je mange en une journée), « régime ABC » (régime de camp d'entraînement pour l'anorexie) et « aliments sûrs » (une référence aux aliments avec peu ou pas de calories). L'équipe de recherche a ensuite analysé les 10 principales recommandations que l'algorithme de YouTube a poussées vers le panneau « Up Next ».

Les résultats ont indiqué que près des deux tiers (638) des vidéos recommandées ont poussé l'utilisateur hypothétique de 13 ans plus loin dans le contenu sur les troubles de l'alimentation ou la perte de poids problématique ; un tiers (344) des recommandations de YouTube ont été jugées nocives par le CCDH, ce qui signifie que le contenu faisait la promotion ou glorifiait les troubles de l'alimentation, contenait de l'intimidation liée au poids ou montrait un comportement imitable ; 50 des vidéos, selon l'étude, impliquaient du contenu d'automutilation ou de suicide.

« Il existe une culture anti-humaine créée par les plateformes de médias sociaux comme YouTube », explique Imran Ahmed, fondateur et PDG du Center for Countering Digital Hate. « Les enfants d'aujourd'hui sont essentiellement rééduqués par des algorithmes, par des entreprises qui les instruisent et les persuadent de se laisser mourir de faim. »

Ahmed affirme que l'étude illustre la nature systémique du problème, à savoir que YouTube, propriété de Google, viole ses propres politiques en autorisant ce contenu sur la plateforme.

YouTube est le site de médias sociaux le plus populaire auprès des adolescents aux États-Unis, devant TikTok et Instagram, selon le Pew Research Center. Les trois quarts des adolescents américains déclarent utiliser la plateforme au moins une fois par jour. YouTube n'exige pas qu'un utilisateur crée un compte pour afficher du contenu.

Le Social Media Victims Law Center, un cabinet d'avocats basé à Seattle et fondé en réponse aux 2021 Facebook Papers, a intenté des milliers de poursuites contre des sociétés de médias sociaux, dont YouTube. Plus de 20 de ces poursuites allèguent que YouTube est conçu pour être intentionnellement addictif et perpétuer les troubles alimentaires chez ses utilisateurs, en particulier chez les adolescentes.

Le cabinet d'avocats a mis en contact 60 Minutes avec une cliente de 17 ans. Son expérience reflète celle d'Anna.

"YouTube m'a appris comment souffrir d'un trouble alimentaire", explique la jeune fille de 17 ans, dont le procès accuse YouTube de perpétuer sciemment l'anorexie. Elle dit avoir créé un compte YouTube à l'âge de 12 ans. Elle se connectait pour regarder des vidéos de chiens, des défis de gymnastique et des tutoriels de cuisine. Puis, dit-elle, elle a commencé à voir des vidéos de filles dansant et faisant de l'exercice. Elle a cliqué. YouTube lui a recommandé d'autres vidéos de filles faisant des exercices plus extrêmes, qui se sont transformées en vidéos de régimes et de perte de poids. Elle a continué à regarder et à cliquer.

Elle dit que son flux est devenu un entonnoir pour le contenu sur les troubles alimentaires, un flux d'influenceurs faisant la promotion de régimes extrêmes et de moyens de « rester mince ». Elle a passé cinq heures par jour sur YouTube, à apprendre des termes comme « boulimie » et « ARFID » (trouble de l'apport alimentaire évitant/restrictif). Elle a appris ce que signifiait « purger » et « restreindre » la nourriture ; elle est devenue profondément préoccupée par son apport calorique et son IMC (indice de masse corporelle).

Lorsqu'elle était en cinquième, elle a arrêté de manger. On lui a diagnostiqué une anorexie peu de temps après, et au cours des cinq années suivantes, elle dit qu'elle a passé plus de temps hors de l'école qu'à l'école. Aujourd'hui en première année de lycée, elle a été hospitalisée cinq fois et a passé des mois dans trois centres de traitement résidentiels pour essayer de se remettre de ce trouble alimentaire.

« Cela m'a pratiquement coûté la vie », se souvient-elle.

Interrogé sur la raison pour laquelle les algorithmes sont utilisés non pas pour protéger les jeunes utilisateurs mais pour recommander intentionnellement du contenu sur les troubles alimentaires, YouTube a refusé de commenter.

Le site de partage de vidéos affirme qu'il « travaille continuellement avec des experts en santé mentale pour affiner son approche des recommandations de contenu pour les adolescents » (https://services.google.com/fh/files/misc/hytw_yt_content_recommendations_teens.pdf). » En avril 2023, la plateforme a élargi ses politiques sur les troubles alimentaires et le contenu d'automutilation, en ajoutant la possibilité de limiter l'âge des vidéos contenant des troubles alimentaires « éducatifs, documentaires, scientifiques ou artistiques » ou qui traitent de « détails susceptibles de déclencher des réactions chez les spectateurs à risque ». En vertu de cette politique, ces vidéos peuvent ne pas être accessibles aux moins de 18 ans.

YouTube a pris des mesures pour bloquer certains termes de recherche comme « thinspiration », un mot utilisé pour trouver des images de corps émaciés. Cependant, l'étude du CCDH a révélé que ces vidéos apparaissent toujours dans le panneau « Up Next ». Et les utilisateurs apprennent qu'en remplaçant la lettre « O » par un zéro ou la lettre « I » par un point d'exclamation, ces termes sont toujours consultables sur YouTube. Une vidéo mentionnée dans le rapport comme glorifiant les formes corporelles squelettiques avait été vue 1,1 million de fois au moment de l'analyse ; elle en compte désormais 1,6 million.

Dans le cadre de l'étude, le CCDH a signalé 100 vidéos YouTube faisant la promotion des troubles alimentaires, du harcèlement lié au poids ou montrant un comportement imitable. YouTube n'a supprimé ou limité l'âge que de 18 de ces vidéos.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd