Au cours des dernières semaines, le monde a appris à travers un certain nombre de rapports que YouTube est en proie à des problèmes avec le contenu pour enfants. La société a intensifié la modération ces dernières semaines pour lutter contre la vague de contenus inappropriés, mais ce n'est pas la première fois que YouTube se trouve dans cette position.
QUAND EST-CE QUE ÇA A COMMENCÉ?
Le 23 février 2015, YouTube a annoncé YouTube Kids, une application autonome conçue pour les enfants et les divertissements adaptés aux enfants. L'idée était de faire de YouTube une plate-forme plus sûre pour les parents, qui ne voulaient pas que leurs enfants utilisent le site principal sans surveillance. Le premier article de blog sur l'application Kids mentionne que "les parents peuvent se reposer un peu plus tranquillement en sachant que les vidéos de l'application YouTube Kids sont limitées au contenu approprié pour les enfants".
Les contrôles parentaux, notamment en donnant aux parents la possibilité de supprimer l'option de recherche de l'application, en donnant à leurs enfants l'accès à "uniquement les vidéos présélectionnées disponibles sur l'écran d'accueil", ont également été inclus. L'application Kids, selon Shimrit Ben-Yair, chef de produit de YouTube Kids Group, a marqué la "première étape vers la réinvention de YouTube pour les familles".
Moins de deux mois plus tard, en mai 2015, la Campagne pour une enfance sans publicité, une coalition de groupes de défense des droits des enfants et des consommateurs, s'est plainte auprès de la Federal Trade Commission (FTC) d'un contenu qu'elle qualifiait de « non seulement... dérangeant pour les jeunes enfants à voir, mais potentiellement dangereux.
En utilisant des personnages populaires comme Elsa et Spider-Man de Frozen, les YouTubers sont capables d'attirer les enfants dans des vidéos offensantes mettant en vedette leurs personnages préférés. Alors qu'au début ces vidéos semblent normales, elles conduisent bientôt ces mêmes princesses et super-héros Disney à participer à des actes obscènes ou violents. L'algorithme de recherche de YouTube permet aux enfants de tomber facilement dans des pièges de listes de lecture horribles remplis de ce type de contenu, car les utilisateurs nomment leurs vidéos et utilisent des vignettes qui peuvent contourner l'algorithme de YouTube, garantissant que le contenu semble sans danger pour les enfants.
Le rapport répertorie un certain nombre de problèmes que Golin et d'autres membres des équipes de plaidoyer ont découverts très tôt dans l'application YouTube Kids. Ceux-ci inclus:
Langage sexuel explicite présenté au milieu d'une animation de dessin animé ;
Une parodie grossière du film Casino mettant en vedette Bert et Ernie de Sesame Street ;
Discussions explicites d'adultes sur la violence familiale, la pornographie et le suicide d'enfants ;
Blagues sur la pédophilie et la consommation de drogue ;
Modélisation de comportements dangereux tels que jouer avec des allumettes allumées.
Un représentant de YouTube a déclaré au San Jose Mercury News après le dépôt de la plainte que, lorsque la société travaillait sur l'application YouTube Kids, elle "avait consulté de nombreux partenaires et groupes de défense des enfants et de protection de la vie privée", ajoutant que YouTube était "toujours ouvert aux commentaires". sur les moyens d'améliorer l'application.
Mais pas beaucoup changé. Un rapport de The Guardian en juin 2016, a souligné que la troisième chaîne la plus populaire sur YouTube à l'époque était "Webs & Tiaras", qui organisait du contenu destiné aux enfants. La chaîne, selon les rapports, mettait en vedette un assortiment d'adultes en costumes de super-héros ou en tenue de princesse exécutant des actes plus matures.
Le contenu de la chaîne était discutable, mais généralement considéré comme acceptable. D'autres mauvais acteurs qui voulaient s'appuyer sur le succès de la chaîne ont commencé à publier un contenu similaire mais avec des images sexuelles et un contenu dérangeant. En 2016, Phil Ranta, un porte-parole de la chaîne, a déclaré à The Verge qu'il n'était pas surprenant que cela se produise.
"Je pense qu'il est naturel que quand quelque chose est aussi grand que ce [nouveau genre], et qu'ils voient des gens gagner des millions de dollars par an, ils essaieront presque tout : devenir plus propre, ajouter des dialogues, devenir plus sexy ou plus fou", Ranta a dit. "Ils ont en quelque sorte juste besoin d'épuiser ces mesures avant de réaliser s'ils peuvent rester dans ce jeu."
Une chaîne en particulier, Webs & Tiaras — Toy Monster utilisait le nom Webs & Tiaras pour diffuser du contenu dérangeant dans le cadre d'une association tendance. Beaucoup de ces vidéos ont été supprimées, mais certaines restent sur YouTube. La chaîne Webs & Tiaras d'origine a été supprimée avant la rédaction de cet article.
YouTube aborde enfin le problème sur son site principal, en modifiant la façon dont il modère le contenu. La PDG de YouTube, Susan Wojcicki, a déclaré que la société étendait son corps de modération à plus de 10 000 sous-traitants en 2018, en les concentrant sur "le contenu qui pourrait enfreindre nos politiques".
"Les réviseurs humains restent essentiels à la fois pour supprimer du contenu et former des systèmes d'apprentissage automatique, car le jugement humain est essentiel pour prendre des décisions contextualisées sur le contenu", a-t-elle écrit dans un récent article de blog.
Près de trois ans plus tard, YouTube a répondu à un certain nombre de préoccupations soulevées par les parents et les critiques des médias concernant le contenu – à la fois sur le site principal et dans l'application autonome pour enfants de YouTube – qu'ils trouvent dérangeante, glorifiant la violence ou obscène. La société a fait la déclaration suivante à Polygon :
Le contenu qui induit en erreur ou met en danger les enfants est inacceptable pour nous. Nous avons des politiques claires contre ces vidéos et nous les appliquons de manière agressive. Nous utilisons une combinaison d'apprentissage automatique, d'algorithmes et de signalement de la communauté pour déterminer le contenu de l'application YouTube Kids. L'équipe YouTube est composée de parents qui se soucient profondément de cela et qui s'engagent à améliorer l'application chaque jour.
Mais les questions concernant le contenu de son application indépendante Kids – y compris si le contenu futur sera organisé ou si l'application comportera moins de vidéos pour permettre une modération plus humaine – restent pour la plupart sans réponse.
Un représentant de YouTube a déclaré à JeuxServer que seuls cinq millièmes (0,005) pour cent du contenu sur YouTube Kids sont considérés comme dérangeants et contraires aux politiques de l'entreprise, ajoutant qu'une fois le contenu signalé, l'entreprise prend des mesures strictes pour supprimer les vidéos et, dans les cas graves. , chaînes entières depuis l'application.
"YouTube le commercialise comme un endroit sûr à explorer pour les enfants, mais ce n'est pas un endroit sûr à explorer pour les enfants", a déclaré Josh Golin, directeur de Campaign for a Commercial-Free Childhood. « Nous avons vraiment été les premiers à soulever ce problème, et cela remonte à deux ans et demi. Ce que nous avons trouvé dans l'intervalle [is] - c'est comme Whac-A-Mole - nous avons donc signalé les vidéos au fur et à mesure que nous les avons vues. Toutes les vidéos que nous avons nommées dans notre plainte sont sorties [de l'application], mais bien sûr, il y en avait d'autres.
"C'est une façon terrible de créer une application pour les enfants", a-t-il déclaré.
Dans la plainte de mai 2015 auprès de la FTC le 19 mai 2015, Golin a souligné comment l'algorithme de recherche de YouTube pouvait être exploité même dans un environnement supposé sûr pour les enfants.
Au fur et à mesure que les utilisateurs de YouTube Kids recherchent du matériel, l'application commence à recommander des vidéos similaires, car la fonction "Recommandé" sur YouTube Kids est apparemment basée sur l'historique de "Recherche". Lorsque nous menions notre examen, YouTube Kids a en fait commencé à recommander des vidéos sur la dégustation de vin sur son application pour les enfants d'âge préscolaire, comme l'indique la capture d'écran ci-dessous. Ainsi, plus les enfants recherchent de vidéos inappropriées, plus ils seront diffusés via la fonction "Recommandé" de l'application.
Golin et ses collègues n'étaient pas les seuls à avoir remarqué que le contenu destiné aux enfants sur l'application et le site principal de YouTube Kids posait problème. Au cours des deux dernières années, plusieurs groupes de parents ont vu le jour sur Facebook dans le but d'apprendre à naviguer, à signaler et à organiser une expérience sûre pour leurs enfants.
L'énoncé de mission d'un groupe Facebook, "Parents Navigating YouTube", indique que le groupe a été créé pour :
Aidez à mettre en liste blanche le contenu YouTube que nos enfants peuvent regarder en toute sécurité sans surveillance parentale. Cela couvrira le contenu pour adultes mais aussi le contenu répréhensible comme la suprématie blanche, le sexisme et les choses de cette nature. Nous discuterons également du contenu YouTube problématique afin que nous sachions ce qui existe et que nous puissions être prêts à en discuter avec nos enfants.
Avec peu de soutien de YouTube, ces groupes agissent souvent comme des chiens de garde bénévoles, traversant le pire de YouTube et le signalant. Un représentant de YouTube a déclaré à JeuxServer que malgré l'amélioration quotidienne de son propre algorithme d'apprentissage automatique - en apprenant quel contenu est inacceptable pour les enfants - l'équipe s'appuie sur les drapeaux des parents pour aider à résoudre les vidéos et les chaînes problématiques.
À une époque où les parents travaillaient ensemble à la création d'un nouveau système amélioré pour garder un œil sur ce que les enfants voient, YouTube s'est concentré sur d'autres aspects de l'application. La société a choisi de mettre en évidence d'autres domaines de l'application YouTube Kids en 2016, notamment le fait qu'elle pouvait être visionnée sur l'Apple TV et était compatible avec YouTube Red.
Ce n'est que cette année que YouTube a commencé à investir massivement dans des mesures préventives.
D'abord et avant tout, la modération.
CHANGEMENTS EN COURS
Bien que YouTube ait soutenu que son site principal était exploité par de mauvais acteurs, et non l'application YouTube Kids en particulier, il est toujours impossible pour YouTube de garantir que l'application Kids est sûre à 100 %. La société a déclaré à USA Today que les parents qui veulent s'assurer que leurs enfants ne tombent pas sur des contenus dérangeants, les options de "vidéos recommandées" doivent être désactivées.
"Parfois, votre enfant peut trouver du contenu dans l'application que vous ne souhaitez peut-être pas qu'il regarde", a déclaré un représentant de YouTube à USA Today.
Malik Ducard, responsable mondial du contenu pour la famille et les enfants de YouTube, a déclaré au New York Times que ces types de vidéos étaient "l'aiguille extrême dans la botte de foin", et a souligné l'apprentissage automatique de l'algorithme et le manque de surveillance pour les raisons pour lesquelles ces vidéos peuvent avoir glissé. . Ducard a également déclaré que YouTube Kids ne servait pas une expérience organisée, ce qui signifie que les parents étaient responsables de contrôler ce que leurs enfants regardent.
Lorsque le mode de restriction est activé, ce qui donne aux parents la possibilité de désactiver la fonction de recherche et d'empêcher que des vidéos supplémentaires du site principal n'inondent l'application, il est difficile pour les enfants de revenir à un paramètre d'itinérance plus ouvert et gratuit. YouTube indique également clairement une fois que les parents se sont inscrits à l'application que, malgré les meilleurs efforts de l'entreprise, un contenu dérangeant créé par de mauvais acteurs peut apparaître.
VUE GRILLE
1 sur 5
Écran d'accueil de l'application YouTube Kids YouTube
Du point de vue de YouTube, une modération parfaite est impossible. 400 heures de vidéo sont mises en ligne chaque minute.
Mais pour Golin, les efforts actuels ne suffisent pas. Golin a déclaré à JeuxServer qu'il était irresponsable pour YouTube de traiter son algorithme comme un "gros filet de pêche", en supposant que l'algorithme captera chaque mauvaise vidéo destinée à l'exploiter.
"Toute la prémisse de l'application YouTube Kids est fausse si vous vous inquiétez pour la sécurité des enfants", a déclaré Golin. "Vous ne pouvez pas avoir une application qui contient des millions et des millions de vidéos, mais ça va. Les enfants n'ont pas besoin d'une application contenant des millions et des millions de vidéos. Ils n'ont pas besoin de 20 000 vidéos d'œufs sur une seule application. Ce dont ils ont besoin, c'est d'un endroit où le contenu a été contrôlé et sécurisé.
"Du point de vue de l'enfant, le problème n'est pas réparable", a déclaré Golin. "Le modèle YouTube a créé quelque chose de si vaste, mais 400 heures de contenu sont téléchargées chaque minute. C'est tout simplement trop grand. Les gens soulèvent ces problèmes depuis des années, il suffit de visiter n'importe quel forum parental et ils ont parlé des fausses vidéos de Peppa Pig. Ce n'est qu'après que la pièce Medium est devenue virale que YouTube a commencé à prendre des mesures proactives. Pour être clair, ils ont pris des mesures parce que les annonceurs étaient concernés, pas les parents. »
YouTube a déjà traversé une "adpocalypse", dans laquelle de grands annonceurs se sont retirés de la plate-forme après avoir trouvé leurs publicités jointes à des vidéos remplies de contenu haineux. L'entreprise veut donc éviter tout ce qui pourrait faire partir d'autres personnes.
Une partie du plan de YouTube consiste à augmenter la modération humaine et à modifier son algorithme, "en formant la technologie d'apprentissage automatique dans d'autres domaines de contenu difficiles, y compris la sécurité des enfants et les discours de haine". YouTube réduira également les chaînes qui reçoivent la monétisation et les publicités attachées à ces vidéos. Étant donné que YouTube Kids inclut également des publicités – dont beaucoup, selon Golin, ne sont pas adaptées aux enfants – cela affectera les chaînes et les vidéos sur la plate-forme.
QUELLE EST LA PROCHAINE POUR YOUTUBE KIDS ?
YouTube Kids est un générateur d'argent ; YouTube ne dirait pas exactement à Polygon combien, mais il vend des publicités contre les vidéos. Quoi qu'il en soit, Golin pense qu'il suffit que YouTube n'ait aucune incitation à changer son application. YouTube a refusé de commenter lorsqu'on lui a demandé si la société allait organiser son contenu et limiter le nombre de vidéos à l'avenir.
"Leur objectif est de gagner de l'argent et à moins qu'il n'y ait suffisamment de tollé et qu'il y ait une pression continue sur eux, nous allons voir les mêmes problèmes", a déclaré Golin. « Je ne sais pas si les problèmes sont réparables. Ce serait formidable si YouTube se rendait compte que ces problèmes pouvaient être résolus et indiquait clairement [que si l'entreprise n'organise pas de contenu] c'est pour les adultes qui veulent regarder des vidéos. Je n'ai pas beaucoup de foi qu'ils obtiendront le leur par eux-mêmes.
Un représentant de YouTube a déclaré à JeuxServer que malgré les rapports, la majorité du problème réside sur le site principal, sur lequel il passera une grande partie de son temps à s'attaquer au cours de l'année à venir. Le représentant a déclaré que des modifications étendues à sa politique actuelle avaient été mises en place pour décourager les contenus inappropriés ciblant les familles sur l'application et le site principaux ; en faisant cela, a confirmé un représentant, il est censé garantir que le contenu limité par l'âge (signalé pour un public de plus de 18 ans) n'apparaît pas sur YouTube Kids.
Un représentant de YouTube a également confirmé que le contenu signalé sur le site principal de YouTube n'est pas censé apparaître sur l'application Kids. Si une vidéo parvient à l'application, le représentant a confirmé qu'un examen secondaire avait lieu, ajoutant qu'une équipe était en place pour modérer à tout moment les nouvelles vidéos signalées sur l'application.
Des questions sont toujours soulevées par des groupes de parents et des organisations de surveillance, comme ElsaGate sur Reddit et Discord, qui gardent un œil sur les chaînes ou les vidéos néfastes qui passent par le système de YouTube sur la suite. Un représentant de YouTube n'a pas pu fournir plus de détails au moment de la rédaction.
Avec des critiques appelant YouTube pour sa lenteur de réponse – parmi lesquels le PDG de News Corp, Robert Thompson, qui a qualifié YouTube de « dépotoir de déchets toxiques », la question est maintenant de savoir comment le problème est immédiatement géré après la nouvelle année. Ducard et Wojcicki ont déclaré que la société "travaille sur des moyens d'empêcher plus efficacement et de manière proactive ce type de situation de se produire".