Description: YouTube's recommendation algorithm has allegedly been directing teen users to harmful content promoting eating disorders and self-harm, according to a study by the Center for Countering Digital Hate. Almost 70% of the recommended videos in searches related to dieting or weight loss reportedly contained content likely to exacerbate body image anxieties.
Editor Notes: The full Center for Countering Digital Hate report is accessible at https://counterhate.com/wp-content/uploads/2024/12/CCDH.YoutubeED.Nov24.Report_FINAL.pdf.
Entités
Voir toutes les entitésAlleged: YouTube et Google developed and deployed an AI system, which harmed Adolescent girls et YouTube users.
Système de l'IA impliqué: YouTube
Statistiques d'incidents
ID
873
Nombre de rapports
1
Date de l'incident
2024-12-10
Editeurs
Daniel Atherton
Rapports d'incidents
Chronologie du rapport
cbsnews.com · 2024
- Afficher le rapport d'origine à sa source
- Voir le rapport sur l'Archive d'Internet
Anna Mockel avait 14 ans et était soudainement obsédée par la perte de poids. C'était au printemps 2020, et elle venait de terminer sa huitième année à distance. Confinée à la maison et nerveuse à l'idée de passer au lycée à l'automne proch…
Variantes
Une "Variante" est un incident qui partage les mêmes facteurs de causalité, produit des dommages similaires et implique les mêmes systèmes intelligents qu'un incident d'IA connu. Plutôt que d'indexer les variantes comme des incidents entièrement distincts, nous listons les variations d'incidents sous le premier incident similaire soumis à la base de données. Contrairement aux autres types de soumission à la base de données des incidents, les variantes ne sont pas tenues d'avoir des rapports en preuve externes à la base de données des incidents. En savoir plus sur le document de recherche.
Incidents similaires
Did our AI mess up? Flag the unrelated incidents
Incidents similaires
Did our AI mess up? Flag the unrelated incidents