Incidents associés

- Des études sur Facebook ont déclaré que les algorithmes nuisaient aux utilisateurs ayant des compétences de base en technologie avec des contenus dérangeants répétés.
- Certains utilisateurs ne comprenaient pas comment le contenu apparaissait dans leurs flux ou comment le contrôler.
- Ces utilisateurs étaient souvent plus âgés, des personnes de couleur, peu instruites et de statut socio-économique inférieur.
Il y a deux ans, les chercheurs de Facebook ont mené une enquête en cinq questions conçue pour évaluer les compétences en littératie numérique de ses utilisateurs.
Il a testé les utilisateurs sur leur compréhension de l'interface de l'application Facebook et des termes tels que "taguer" quelqu'un sur les réseaux sociaux. Leur score correspondait au nombre de questions auxquelles ils avaient répondu correctement. Les chercheurs ont ensuite comparé les scores des utilisateurs aux types de contenu que les algorithmes de Facebook leur ont fournis sur une période de 30 jours.
Ils ont constaté qu'en moyenne, les scores des utilisateurs prédisaient presque parfaitement le pourcentage de messages qui apparaissaient dans leurs flux contenant de la violence graphique et de la nudité limite. Les utilisateurs qui n'ont répondu correctement à aucune des questions ont vu 11,4 % de nudité en plus et 13,4 % de violence graphique en plus que les utilisateurs qui ont correctement répondu aux cinq questions.
"C'est super intéressant", a commenté un employé sur un post interne à propos de l'étude. "Il est également très inquiétant de se rendre compte que l'expérience de flux "par défaut", pour ainsi dire, inclut la nudité + le contenu limite, sauf contrôle contraire."
Dans une autre étude, les chercheurs de Facebook ont mené des dizaines d'entretiens approfondis et de visites à domicile avec 18 personnes réelles d'une ville qu'ils avaient identifiées comme des utilisateurs vulnérables ayant de faibles compétences en littératie numérique. L'étude a déterminé que les messages bouleversants qui ont imprégné les flux de ces utilisateurs les ont amenés à se déconnecter de Facebook pendant de longues périodes et ont exacerbé les difficultés qu'ils connaissaient déjà.
Par exemple, Facebook a montré à plusieurs reprises à une femme noire d'âge moyen des messages sur le ressentiment racial et des vidéos de personnes intimidant des enfants, menaçant et tuant d'autres personnes. Une personne qui a rejoint un groupe Facebook de Narcotiques Anonymes a commencé à voir des publicités, des recommandations et des publications sur les boissons alcoolisées. Peu de temps après qu'une autre personne a commencé à suivre les pages de coupons et d'économies, son flux a été inondé d'escroqueries financières.
Les études font partie de plusieurs études menées par Facebook ces dernières années sur les effets néfastes de ses plates-formes sur les personnes ayant de faibles compétences en littératie numérique, selon des documents fournis à la Securities and Exchange Commission et au Congrès par les avocats de [Frances Haugen, une ancienne employée de Facebook] (https://www.usatoday.com/story/tech/2021/10/04/facebook-whistleblower-frances-haugen-what-we-know/5993959001/). Un consortium de [17 agences de presse](https://www.usatoday.com/story/opinion/2021/10/29/facebook-papers-what-usa-today-found-whistleblower-documents-meta-sex-trafficking -misinformation/8581639002/), dont USA TODAY, en a obtenu des copies expurgées.
Les études ont conclu que les algorithmes de Facebook nuisaient aux personnes moins familiarisées avec la technologie en les exposant continuellement à des contenus dérangeants qu'ils ne savaient pas comment éviter. Beaucoup d'entre eux ne savaient pas comment masquer les publications, ne plus suivre les pages, bloquer des amis ou signaler un contenu en infraction. Mais les algorithmes ont pris leur manque de rétroaction négative pour une approbation et les ont nourris davantage.
"Les utilisateurs peu qualifiés n'ont pas la capacité de faire face à un contenu inconfortable et le font plutôt défiler, laissant l'utilisateur avec une mauvaise expérience et Facebook ignorant ses préférences", a écrit un chercheur.
Selon Drew Pusateri, porte-parole de la société mère de Facebook, Meta, seule une petite fraction des publications sur Facebook - moins d'un dixième de un pour cent, selon les estimations de l'entreprise - montrent du contenu non conforme. Il a également noté que ses recherches ont révélé que les utilisateurs ayant une faible littératie numérique voyaient en moyenne moins de contenu haineux. La recherche indique que cela peut être dû au fait que les utilisateurs qui consultent du contenu haineux ont tendance à le rechercher, et que les personnes férues de technologie peuvent mieux le localiser.
"En tant qu'entreprise, nous avons toutes les motivations commerciales et morales pour essayer de donner au maximum de personnes une expérience aussi positive que possible sur Facebook", a déclaré Pusateri. "La croissance du nombre de personnes ou d'annonceurs utilisant Facebook ne signifie rien si nos services ne sont pas utilisés de manière à rapprocher les gens."
Facebook a dépensé plus de 5 milliards de dollars cette année pour la sûreté et la sécurité et a consacré 40 000 personnes à travailler sur ces problèmes, a-t-il déclaré.
Littératie Facebook : qui a des problèmes
Selon les études, les utilisateurs ayant de faibles compétences en littératie numérique étaient beaucoup plus susceptibles d'être plus âgés, de couleur, moins instruits et de statut socio-économique inférieur. Ils étaient également beaucoup plus susceptibles de vivre en dehors des États-Unis.
Entre un quart et un tiers de tous les utilisateurs de Facebook sont qualifiés de peu qualifiés, ont estimé les chercheurs. Cela comprenait environ un sixième des utilisateurs américains et jusqu'à la moitié des utilisateurs de certains «marchés émergents».
"Quand vous pensez à qui est lésé par les choix que font Facebook et d'autres plateformes, ce sont ceux qui ont été lésés dans le passé de manière structurelle, historique et systémique", a déclaré Angela Siefer, directrice exécutive. de la National Digital Inclusion Alliance, un groupe de défense qui vise à réduire la fracture numérique en partie grâce à l'éducation à la littératie numérique.
"Qu'il s'agisse d'un service à large bande ou d'une plate-forme, nous devons cesser de prétendre que leurs intérêts correspondent complètement à ceux des individus et des membres de la communauté", a déclaré Siefer. "Si nous continuons à faire semblant qu'ils s'alignent, alors nous allons être profondément déçus encore, encore et encore."
Lorsque les chercheurs de Facebook ont montré aux utilisateurs de ce groupe démographique comment utiliser des fonctions telles que "masquer" et "ne plus suivre" pour organiser leurs flux, ils ont commencé à les utiliser régulièrement et leurs expériences se sont considérablement améliorées, ont constaté les chercheurs. Facebook a également testé un bouton "Easy Hide" qui a quadruplé le nombre de publications masquées.
Les chercheurs ont recommandé à Facebook d'entreprendre de vastes campagnes d'éducation sur ces fonctionnalités, de les mettre en évidence et de cesser de montrer aux utilisateurs le contenu des groupes et des pages qu'ils ne suivent pas.
Facebook ne semble pas avoir déployé Easy Hide. Il a introduit d'autres fonctionnalités, a déclaré Pusateri, notamment "Pourquoi est-ce que je vois ce message ?" en 2019. Cette fonctionnalité permet aux utilisateurs de voir comment leurs interactions précédentes sur le site Web façonnent les décisions de ses algorithmes de prioriser des publications spécifiques dans leurs flux.
Qu'est-ce que la littératie numérique?
Selon les chercheurs de Facebook, le concept de littératie numérique englobe un large éventail de compétences nécessaires pour utiliser Internet en toute sécurité. Il couvre les compétences fonctionnelles en ligne, comme savoir comment créer un compte ou ajuster ses paramètres de confidentialité, ainsi que les compétences de base en lecture et en langage et la capacité d'évaluer les informations comme subjectives, biaisées ou fausses.
Selon une analyse de Facebook, le meilleur prédicteur des compétences en littératie numérique des utilisateurs était la durée de leur présence sur la plate-forme. En général, les utilisateurs moins qualifiés ne comprenaient pas comment le contenu apparaissait dans leurs flux ni comment le contrôler. Il s'agit de personnes qui connaissaient peut-être la technologie mais qui sont toujours vulnérables à la désinformation, aux canulars et aux escroqueries, comme certains adolescents.
Amy VanDeVelde est directrice du programme national de technologie pour Connections, une branche de l'Oasis Institute, une organisation à but non lucratif basée à Saint-Louis qui enseigne aux personnes âgées des compétences en littératie numérique et en cybersécurité. Connections propose deux cours Facebook qui enseignent aux utilisateurs comment masquer des publications et modifier leurs paramètres de confidentialité, entre autres fonctionnalités.
"Une partie de ce qui, à mon avis, afflige les nouveaux arrivants numériques lorsqu'ils commencent à utiliser Facebook est une sorte de surcharge sensorielle", a déclaré VanDeVelde. "Il y a tellement de choses à regarder et tellement d'options. Ils n'ont aucune idée de ce que fait l'algorithme, comment désactiver les notifications et comment signaler tout contenu qu'ils ne veulent pas."
De nombreuses personnes âgées rejoignent Facebook pour voir des photos de leurs petits-enfants, entrer en contact avec de vieux amis et rejoindre des groupes de soutien, a déclaré VanDeVelde. Ils ne comprennent pas toujours comment leurs interactions sur la plate-forme peuvent être utilisées pour en tirer parti.
Allan S., qui a demandé que son nom complet ne soit pas publié par souci de confidentialité en ligne, est un utilisateur Facebook plus âgé qui a aimé participer à des sondages et à des quiz nostalgiques lorsqu'il a rejoint le site Web pour la première fois il y a plusieurs années. Ce n'est que lorsqu'il a suivi un cours Connections qu'il s'est rendu compte que certains sondages demandaient des informations personnelles, comme sa matière préférée à l'école, qui pourraient être utilisées pour réinitialiser les mots de passe de son compte en ligne via des questions de sécurité.
"Ce n'est pas comme si vous alliez sur Facebook et que tout d'un coup vous saviez ce que vous faites", a-t-il déclaré à USA TODAY. "Ils ne viennent pas tout de suite et vous disent:" Vous devriez faire ceci, vous ne devriez pas faire cela.
Il a décrit un incident récent qui a mis en perspective la quantité d'informations que Facebook collectait sur la vie privée des gens.
Sur un site de rencontre en ligne, il discutait avec une femme qui n'avait pas donné son nom de famille, a-t-il déclaré. Il n'a pas non plus fourni le sien. Ils se sont parlé une fois au téléphone, et peu de temps après, Facebook lui a recommandé de lui envoyer une demande d'ami. Son profil Facebook indiquait son nom de famille.
"Pour être parfaitement honnête, je me sentais très mal à l'aise d'avoir accès à plus d'informations sur elle qu'elle ne voulait que je sache", a-t-il déclaré. "C'est incroyable de voir comment cette petite chose inoffensive n'est pas nécessairement si inoffensive. Ce n'est pas nécessairement si mauvais. Mais vous ne pouvez pas l'utiliser sans faire attention."
Pourquoi certains utilisateurs de Facebook ont des problèmes avec la plateforme
Certains des problèmes auxquels sont confrontés ces utilisateurs sont du fait de l'entreprise elle-même, ont découvert les chercheurs. Par exemple, les gens ne comprenaient pas pourquoi Facebook recommandait du contenu de pages qu'ils ne suivaient pas ou n'aimaient pas.
Les utilisateurs ayant une faible littératie numérique avaient tendance à utiliser massivement Watch de Facebook, un flux organisé de vidéos populaires et virales. Une étude a révélé que Watch montrait un contenu non pertinent et potentiellement inconfortable pour ces utilisateurs, qui fournissaient peu de commentaires négatifs.
De plus, lorsque des groupes Facebook aléatoires inviteraient des utilisateurs à se joindre, les algorithmes de Facebook incluraient les publications des groupes dans les flux des utilisateurs pendant que les invitations étaient en attente. Ces publications ont dérouté et parfois dérangé ces utilisateurs. Un chercheur a fait remarquer que la fonctionnalité "semble être une faille dans les politiques de Facebook".
"(C) cela peut contribuer à la perception de l'utilisateur que son flux est un flux de contenu non connecté sur lequel il a peu d'agence", a écrit le chercheur.
Les problèmes se sont aggravés pour les utilisateurs moins familiarisés avec la technologie dans les pays classés par Facebook comme "à risque", notamment l'Inde, la Syrie, l'Irak, le Yémen, l'Éthiopie, la Russie et les Philippines, selon la recherche. Les utilisateurs du Myanmar et de certains autres pays ont tendance à envoyer et accepter sans discernement des demandes d'amis et à rejoindre des pages et des groupes, qui sont les principaux vecteurs de contenu de division et de désinformation, selon une étude. Les informations de mauvaise qualité, y compris sur le COVID-19, étaient également plus répandues dans les régions à faible niveau d'alphabétisation.
Facebook a ajouté des "indices de véracité" pour aider les utilisateurs à lutter contre la désinformation, mais les chercheurs ont découvert que les utilisateurs peu qualifiés - en particulier dans d'autres pays - ne les comprenaient pas ou y prêtaient peu d'attention. Ces utilisateurs ont pris la viralité comme un baromètre de la fiabilité, n'ont pas remarqué les badges de vérification et ont ignoré les invites d'avertissement conçues pour les alerter des photos anciennes et hors contexte dans les publications.
Les chercheurs de Facebook ont critiqué le langage neutre dans ses messages d'avertissement, affirmant qu'il n'avait pas suscité suffisamment de scepticisme. Des phrases telles que "Ce message inclut une photo qui a été partagée il y a trois ans", par exemple, n'ont guère dissuadé les utilisateurs de certaines régions de cliquer sur "Partager quand même".
Au lieu de cela, les chercheurs ont recommandé à Facebook d'utiliser des mots forts comme « prudence », « trompeur » et « trompeur » pour exprimer le sérieux et attirer l'attention. Facebook pourrait également expliquer plus directement aux utilisateurs pourquoi certains messages suscitent des soupçons, ont-ils déclaré, par exemple en disant : "Les vieilles photos peuvent être trompeuses".
Mais ces recommandations "sont en contradiction avec les dernières directives de (PDG) Mark (Zuckerberg) pour garder notre messagerie neutre dans le ton et le choix de la langue dans des circonstances comme celles-ci", où les algorithmes de Facebook peuvent être imparfaits pour reconnaître le contenu trompeur, une étude d'octobre 2020 noté.
Selon l'étude, Zuckerberg craignait les faux positifs, préférant pécher par excès, sous-application et non-jugement. Cela a frustré certains employés.
"Ce sera une pilule très difficile à avaler en interne", a commenté un employé au sujet de l'étude. « Au niveau des tripes, laisser la désinformation limite et les attaques de mauvaise foi contre la démocratie/la civilité rester impunies ressemble à un affront moral.
"Si c'est vraiment là que se trouve la tête de Mark, je m'attendrais à de plus en plus de conflits internes basés sur des valeurs dans les années et les mois à venir."