Incidents associés
Instagram recommande régulièrement des vidéos sexuelles aux comptes d'adolescents qui semblent intéressés par le contenu osé, et ce dans les minutes qui suivent leur première connexion, selon des tests réalisés par le Wall Street Journal et un chercheur universitaire.
Les tests, menés sur une période de sept mois se terminant en juin, montrent que le service de médias sociaux a continué à proposer du contenu destiné aux adultes aux mineurs après que les parents Meta Platforms ont déclaré en janvier qu'il offrait aux adolescents une expérience plus adaptée à leur âge en limitant ce qu'il appelle le contenu sensible, y compris le matériel sexuellement suggestif.
Des tests distincts réalisés par le Journal et Laura Edelson, professeur d'informatique à l'université Northeastern, ont utilisé une méthodologie similaire, impliquant la création de nouveaux comptes avec des âges indiqués comme 13 ans. Les comptes ont ensuite regardé le flux vidéo organisé par Instagram, connu sous le nom de Reels.
Instagram proposait un mélange de vidéos qui, dès le début, incluaient du contenu modérément osé, comme des femmes dansant de manière séduisante ou posant dans des positions mettant en valeur leur poitrine. Lorsque les comptes passaient à côté d'autres clips mais regardaient ces vidéos osées jusqu'au bout, Reels recommandait du contenu plus osé.
Les créateurs de contenu sexuel pour adultes ont commencé à apparaître dans les flux en seulement trois minutes. Après moins de 20 minutes de visionnage de Reels, les flux des comptes de test étaient dominés par des promotions pour ces créateurs, certains proposant d'envoyer des photos nues aux utilisateurs qui interagissaient avec leurs publications.
Des tests similaires sur les produits de vidéos courtes de Snapchat et TikTok n'ont pas produit le même contenu sexualisé pour les utilisateurs mineurs.
"Les trois plateformes affirment également qu'il existe des différences dans le contenu qui sera recommandé aux adolescents", a déclaré Edelson. "Mais même l'expérience adulte sur TikTok semble avoir beaucoup moins de contenu explicite que l'expérience des adolescents sur Reels".
Meta a rejeté les résultats du test comme n'étant pas représentatifs de l'expérience globale des adolescents.
"Il s'agissait d'une expérience artificielle qui ne correspond pas à la réalité de la façon dont les adolescents utilisent Instagram", a déclaré le porte-parole Andy Stone.
Stone a déclaré que les efforts de l'entreprise pour empêcher ses systèmes de recommander du contenu inapproprié aux mineurs se poursuivaient. "Dans le cadre de notre travail de longue date sur les questions liées à la jeunesse, nous avons mis en place un effort pour réduire davantage le volume de contenu sensible que les adolescents pourraient voir sur Instagram, et nous avons considérablement réduit ces chiffres au cours des derniers mois", a-t-il déclaré.
La majeure partie des tests effectués par Edelson et le Journal ont eu lieu de janvier à avril. Un test supplémentaire effectué par le Journal en juin a révélé des problèmes persistants. Dans la demi-heure qui a suivi sa création, un nouveau compte test de 13 ans qui ne regardait que des vidéos recommandées par Instagram mettant en scène des femmes a commencé à se voir proposer vidéo après vidéo sur le sexe anal.
Auto-examen
Des tests et analyses internes effectués par des employés de Meta ont identifié des problèmes similaires, selon des employés actuels et anciens et des documents consultés par le Journal qui font partie d'une recherche de l'entreprise non divulguée auparavant sur les expériences néfastes des jeunes adolescents sur Instagram. En 2021, le personnel de sécurité de l'entreprise a effectué des tests similaires à ceux d'Edelson et du Journal, et a obtenu des résultats comparables, ont déclaré d'anciens employés.
Une analyse interne distincte de 2022 examinée par le Journal a révélé que Meta sait depuis longtemps qu'Instagram montre plus de pornographie, de sang et de discours haineux aux jeunes utilisateurs qu'aux adultes. Les adolescents sur Instagram ont signalé une exposition à l'intimidation, à la violence et à la nudité non désirée à des taux dépassant les utilisateurs plus âgés dans les enquêtes menées par l'entreprise, et les statistiques de l'entreprise ont confirmé que la plateforme était disproportionnellement susceptible de proposer des contenus pour enfants qui enfreignaient les règles de la plateforme.
Les adolescents ont vu trois fois plus de publications interdites contenant de la nudité, 1,7 fois plus de violence et 4,1 fois plus de contenu d'intimidation que les utilisateurs de plus de 30 ans, selon l'analyse interne de 2022. Les efforts automatisés de Meta pour empêcher que de tels contenus ne soient proposés aux adolescents étaient souvent trop faibles pour être efficaces, selon le document.
Le moyen le plus efficace d'empêcher que des contenus inappropriés soient proposés aux utilisateurs mineurs serait de créer un système de recommandation entièrement distinct pour les adolescents, suggère le document. Meta n'a pas donné suite à cette proposition.
Certains cadres supérieurs, dont le directeur d'Instagram Adam Mosseri, ont exprimé leur inquiétude quant à l'affichage disproportionné de contenu pour adultes et d'autres contenus abusifs aux enfants, selon les employés de l'entreprise.
Les algorithmes de Reels fonctionnent, en partie, en détectant les intérêts des utilisateurs en fonction des vidéos sur lesquelles ils s'attardent plus longtemps que les autres et en recommandant des contenus similaires.
Meta a des politiques régissant ces systèmes de recommandation. Selon ses directives, le contenu sexuellement suggestif n'est pas censé être recommandé aux utilisateurs de tout âge, à moins qu'il ne provienne de comptes qu'ils ont spécifiquement choisi de suivre.
Selon l'annonce de Meta en janvier, les adolescents de moins de 16 ans ne sont pas censés voir du contenu sexuellement explicite du tout.
Dans plus d'une douzaine de tests manuels effectués par le Journal et Edelson de Northeastern, les comptes mineurs n'ont suivi personne ni n'ont recherché quoi que ce soit, afin d'éviter toute activité susceptible d'influencer les recommandations de contenu d'Instagram.
Dès leur création, les comptes ont commencé à regarder des Reels. Les premiers clips présentaient des comédies traditionnelles, des voitures ou des cascades, ainsi que des images de personnes blessées. Les comptes tests ont fait défiler ces vidéos.
Ils ont regardé des vidéos recommandées par Instagram qui présentaient des images telles qu'une femme dansant ou posant d'une manière qui pourrait être interprétée comme sexuellement suggestive. Ils n'ont aimé, enregistré ou cliqué sur aucune vidéo.
Après quelques courtes sessions, Instagram a en grande partie arrêté de recommander les vidéos de comédie et de cascades et a alimenté les comptes tests avec un flux constant de vidéos dans lesquelles des femmes mimaient des actes sexuels, décrivaient graphiquement leur anatomie ou se caressaient au son d'une musique aux paroles provocantes.
Dans un clip recommandé par Instagram à un compte test identifié comme ayant 13 ans, une artiste adulte promettait d'envoyer une photo de ses « poitrines » par message direct à quiconque commenterait sa vidéo. Une autre a montré ses parties génitales à la caméra.
Des sessions supplémentaires les jours suivants ont produit le même mélange de contenu sexuel, aux côtés de publicités de grandes marques.
Comment TikTok et Snapchat se comportent
Les algorithmes derrière la fonction vidéo « Spotlight » de TikTok et Snapchat fonctionnent sur des principes similaires à ceux de Reels.
Ils sont tous censés fonctionner en filtrant des milliards de publications vidéo et en éliminant celles qui échouent à certains tests de qualité, qui sont censées contenir du contenu jugé « non recommandable » ou qui n'ont pas de sens compte tenu de la langue, de l'âge ou de la géographie d'un utilisateur. Les systèmes font ensuite des recommandations personnalisées parmi les vidéos restantes en fonction de la probabilité prédite qu'un utilisateur les regarde.
Malgré la mécanique similaire de leurs systèmes, ni TikTok ni Snapchat n'ont recommandé les flux vidéo à forte teneur sexuelle aux comptes adolescents fraîchement créés comme l'a fait Meta, selon des tests réalisés par le Journal et Edelson.
Sur TikTok, les nouveaux comptes de test d'âge adulte qui ont regardé des vidéos osées jusqu'au bout ont commencé à recevoir davantage de ce contenu. Mais les nouveaux comptes de test d'adolescents qui se comportaient de manière identique n'ont pratiquement jamais vu ce type de contenu, même lorsqu'un compte mineur de test recherchait, suivait et aimait activement des vidéos de créateurs de contenu sexuel pour adultes.
Un ingénieur de TikTok a attribué cette différenciation à la fois à des normes de contenu plus strictes pour les utilisateurs mineurs et à une plus grande tolérance aux faux positifs lors de la restriction des recommandations.
« Nous faisons preuve de prudence », a déclaré un porte-parole de TikTok, ajoutant que les adolescents ont accès à un bassin de contenu plus limité.
Dans les tests d'Edelson sur Instagram, les comptes de test adultes et adolescents ont continué à voir des vidéos de créateurs de contenu pour adultes à des taux similaires, ce qui suggère une différenciation bien moindre. Dans certains cas, Instagram a recommandé aux comptes adolescents de regarder des vidéos que la plateforme avait déjà qualifiées de « dérangeantes ».
Meta a déclaré que, par définition, le contenu qualifié de « dérangeant » et caché derrière un écran d'avertissement ne devrait pas être montré aux enfants. Stone a attribué le résultat à une erreur et a déclaré que Meta a développé plus de 50 outils et ressources pour aider les adolescents et leurs parents sur ses plateformes.
Débat interne
Les responsables de Meta ont débattu de la manière de gérer le niveau d'affichage de contenu inapproprié à l'âge des enfants. Lors d'une réunion à la fin de l'année dernière, les principaux responsables de la sécurité ont discuté de la question de savoir s'il serait suffisant de réduire la fréquence à laquelle les mineurs voient du contenu interdit au niveau que voient les adultes.
Mosseri, le directeur d'Instagram, a déclaré lors de la réunion que parvenir à la parité ne serait pas suffisant compte tenu des déclarations publiques de Meta concernant la sécurité des adolescents sur ses plateformes, selon des personnes au courant de ses commentaires. Cette réunion a préparé le terrain pour l'annonce de Meta en janvier selon laquelle elle imposerait automatiquement par défaut aux adolescents ses paramètres de contenu les plus restrictifs pour s'abstenir de recommander des contenus sexuellement suggestifs ou autrement problématiques.
Le succès de cet effort reste à voir.
Les avocats seniors de Meta, dont l'avocate générale Jennifer Newstead, ont également commencé au cours du second semestre de l'année dernière à faire valoir auprès de la haute direction de l'entreprise que les problèmes de sécurité des enfants sur Facebook et Instagram posaient des risques juridiques et réglementaires sous-estimés, selon les employés actuels et anciens de Meta chargés de la sécurité des enfants.
Les employés ont déclaré que Meta a récemment augmenté ses investissements dans le travail de sécurité des enfants après des années de budgets serrés, intensifiant l'examen de ses efforts par les responsables gouvernementaux et les recommandations de son service juridique.