Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2381

Incidents associés

Incident 1603 Rapports
Alexa Recommended Dangerous TikTok Challenge to Ten-Year-Old Girl

Incident 2863 Rapports
TikTok’s "For You" Allegedly Pushed Fatal “Blackout” Challenge Videos to Two Young Girls

Incident 2793 Rapports
TikTok’s “For You” Algorithm Exposed Young Users to Pro-Eating Disorder Content

Loading...
L'étude sur l'automutilation de TikTok révèle "le cauchemar de tous les parents"
theguardian.com · 2022

L’algorithme de recommandation de TikTok pousse le contenu sur l’automutilation et les troubles de l’alimentation aux adolescents quelques minutes après qu’ils ont exprimé leur intérêt pour les sujets, selon la recherche.

Le Center for Countering Digital Hate (CCDH) a constaté que le site de partage de vidéos ferait la promotion de contenus tels que des régimes dangereusement restrictifs, des contenus pro-automutilation et des contenus romantisant le suicide auprès des utilisateurs qui montrent une préférence pour le contenu, même s'ils sont enregistrés en tant que moins de 18 ans.

Pour son étude, le groupe de campagne a créé des comptes aux États-Unis, au Royaume-Uni, au Canada et en Australie, enregistrés à partir de 13 ans, l'âge minimum pour rejoindre le service. Il a créé des comptes "standard" et "vulnérables", ces derniers contenant le terme "perdre du poids" dans leurs noms d'utilisateur, ce qui, selon le CCDH, reflétait des recherches montrant que les utilisateurs de médias sociaux qui recherchent du contenu sur les troubles de l'alimentation choisissent souvent des noms d'utilisateur contenant un langage apparenté.

Les comptes "s'arrêtèrent brièvement" sur des vidéos sur l'image corporelle, les troubles de l'alimentation et la santé mentale, et les aimèrent également. Cela s'est déroulé sur une période initiale de 30 minutes lors du lancement des comptes, dans le but de capturer l'efficacité de l'algorithme de TikTok qui recommande du contenu aux utilisateurs.

Sur les comptes « standard », le contenu sur le suicide a suivi en près de trois minutes et le matériel sur les troubles de l'alimentation a été diffusé en huit minutes.

"Les résultats sont le cauchemar de tous les parents", a déclaré Imran Ahmed, directeur général du CCDH. "Les flux des jeunes sont bombardés de contenus nocifs et déchirants qui peuvent avoir un impact cumulatif significatif sur leur compréhension du monde qui les entoure et sur leur santé physique et mentale."

Le groupe a déclaré que la majorité des vidéos sur la santé mentale présentées à ses comptes standard via le flux For You – la principale façon dont les utilisateurs de TikTok expérimentent l'application – consistaient en des utilisateurs partageant leurs angoisses et leurs insécurités.

Le contenu de l'image corporelle était plus préjudiciable, selon le rapport, les comptes enregistrés pour les jeunes de 13 ans diffusant des vidéos faisant la publicité de boissons amaigrissantes et d'une chirurgie « abdominoplastie ». Une animation qui est apparue devant les comptes standard contenait un morceau d'audio indiquant "Je me suis affamé pour toi" et avait plus de 100 000 likes. Le rapport indique que les comptes ont montré des vidéos d'automutilation ou de troubles de l'alimentation toutes les 206 secondes.

Les chercheurs ont découvert que les vidéos relatives à l'image corporelle, à la santé mentale et aux troubles de l'alimentation étaient montrées trois fois plus aux comptes "vulnérables" qu'aux comptes standards. Les comptes vulnérables ont reçu 12 fois plus de recommandations pour les vidéos d'automutilation et de suicide que les comptes standards, selon le rapport.

Le contenu recommandé était plus extrême pour les comptes vulnérables, y compris les méthodes d'automutilation et les jeunes discutant de plans pour se suicider. Le CCDH a déclaré qu'une vidéo liée à la santé mentale ou à l'image corporelle était diffusée toutes les 27 secondes, bien que le contenu soit dominé par des vidéos sur la santé mentale, que le CCDH a définies comme des vidéos sur l'anxiété, l'insécurité et les problèmes de santé mentale, à l'exclusion des troubles de l'alimentation, de l'automutilation et du suicide. .

Le groupe a déclaré que ses recherches ne faisaient pas de distinction entre le contenu avec une intention positive – comme le contenu découvrant la récupération – ou le contenu négatif.

Un porte-parole de TikTok, qui appartient à la société chinoise ByteDance et compte plus d'un milliard d'utilisateurs dans le monde, a déclaré que l'étude du CCDH ne reflétait pas l'expérience ou les habitudes de visionnage des utilisateurs réels de l'application.

"Nous consultons régulièrement des experts de la santé, supprimons les violations de nos politiques et donnons accès à des ressources de soutien à toute personne dans le besoin", ont-ils déclaré. "Nous sommes conscients que le contenu déclencheur est unique à chaque individu et restons concentrés sur la création d'un espace sûr et confortable pour tout le monde, y compris les personnes qui choisissent de partager leurs parcours de rétablissement ou d'éduquer les autres sur ces sujets importants."

Les directives de TikTok interdisent le contenu qui promeut un comportement susceptible de conduire au suicide et à l'automutilation, ainsi que le matériel qui promeut des comportements ou des habitudes alimentaires malsains.

Le projet de loi britannique sur la sécurité en ligne propose d'obliger les réseaux sociaux à prendre des mesures contre les contenus dits "légaux mais préjudiciables" qui sont montrés aux enfants.

Un porte-parole du DCMS a déclaré : « Nous mettons un terme aux réseaux sociaux non réglementés qui nuisent à nos enfants. En vertu du projet de loi sur la sécurité en ligne, les plates-formes technologiques devront empêcher les moins de 18 ans d'être exposés à des contenus illégaux aidant au suicide et les protéger contre d'autres contenus nocifs ou inappropriés pour leur âge, y compris la promotion de l'automutilation et des troubles de l'alimentation, ou faire face à d'énormes amendes. .”

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd