Incidents associés

Pendant des années, les chercheurs ont suggéré que les algorithmes alimentant le contenu des utilisateurs ne sont pas la cause des chambres d'écho en ligne, mais sont plus probablement dus au fait que les utilisateurs recherchent activement un contenu qui correspond à leurs croyances. Cette semaine, des chercheurs de l'Université de New York pour le Center for Social Media and Politics ont montré les résultats d'une expérience YouTube qui vient d'être menée juste au moment où des allégations de fraude électorale ont été soulevées à l'automne 2020. Ils disent que leurs résultats fournissent une mise en garde importante aux recherches antérieures de montrant la preuve qu'en 2020, l'algorithme de YouTube était responsable de recommander "de manière disproportionnée" du contenu de fraude électorale aux utilisateurs plus "sceptiques quant à la légitimité de l'élection pour commencer".
Un co-auteur de l'étude, le politologue de l'Université Vanderbilt James Bisbee a déclaré à The Verge que même si les participants ont été recommandés un faible nombre de vidéos de négation électorale - un maximum de 12 vidéos sur des centaines de participants cliqués - l'algorithme en a généré trois fois plus pour les personnes prédisposées à adhérer au complot que pour les personnes qui ne l'ont pas fait. "Plus vous êtes sensible à ces types de récits sur l'élection … plus on vous recommanderait du contenu sur ce récit", a déclaré Bisbee.
La porte-parole de YouTube, Elena Hernandez, a déclaré à Ars que le rapport de l'équipe de Bisbee "ne représente pas avec précision le fonctionnement de nos systèmes". Hernandez déclare : "YouTube n'autorise ni ne recommande les vidéos qui avancent de fausses allégations selon lesquelles des fraudes, des erreurs ou des problèmes généralisés se sont produits lors de l'élection présidentielle américaine de 2020" et les "vidéos et chaînes les plus vues et recommandées de YouTube liées aux élections proviennent de sources faisant autorité, comme les chaînes d'information."
L'équipe de Bisbee déclare directement dans son rapport qu'elle n'a pas tenté de résoudre l'énigme du fonctionnement du système de recommandation de YouTube :
"Sans accès à l'algorithme de secret commercial de YouTube, nous ne pouvons pas affirmer avec certitude que le système de recommandation déduit l'appétit d'un utilisateur pour le contenu de fraude électorale en utilisant ses historiques de surveillance passés, ses données démographiques ou une combinaison des deux. Aux fins de notre contribution , nous traitons l'algorithme comme la boîte noire qu'il est, et nous demandons simplement s'il recommandera de manière disproportionnée le contenu de fraude électorale aux utilisateurs qui sont plus sceptiques quant à la légitimité de l'élection."
Pour mener leur expérience, l'équipe de Bisbee a recruté des centaines d'utilisateurs de YouTube et a recréé l'expérience de recommandation en demandant à chaque participant de compléter l'étude en se connectant à son compte YouTube. Après que les participants ont cliqué sur diverses recommandations, les chercheurs ont enregistré tout contenu recommandé signalé comme soutenant, réfutant ou signalant de manière neutre les allégations de fraude électorale de Trump. Une fois qu'ils ont fini de regarder des vidéos, les participants ont rempli un long sondage pour partager leurs opinions sur l'élection de 2020.
Bisbee a déclaré à Ars que "le but de notre étude n'était pas de mesurer, de décrire ou de désosser le fonctionnement interne de l'algorithme YouTube, mais plutôt de décrire une différence systématique dans le contenu qu'il recommandait aux utilisateurs qui étaient plus ou moins préoccupés par l'élection". fraude." Le seul objectif de l'étude était d'analyser le contenu fourni aux utilisateurs pour tester si les systèmes de recommandation en ligne contribuaient à "l'environnement d'information polarisé".
"Nous pouvons montrer ce modèle sans rétro-ingénierie de l'algorithme de boîte noire qu'ils utilisent", a déclaré Bisbee à Ars. "Nous avons juste regardé ce que de vraies personnes étaient montrées."
Test du système de recommandation de YouTube
L'équipe de Bisbee a signalé cela parce que l'algorithme de YouTube repose sur les historiques de visionnage et les abonnements. Dans la plupart des cas, c'est une expérience positive pour le contenu recommandé de s'aligner sur les intérêts des utilisateurs. Mais en raison des circonstances extrêmes qui ont suivi les élections de 2020, les chercheurs ont émis l'hypothèse que le système de recommandation alimenterait naturellement plus de contenu sur la fraude électorale aux utilisateurs qui étaient déjà sceptiques quant à la victoire de Joe Biden.
Pour tester l'hypothèse, les chercheurs "ont soigneusement contrôlé le comportement de vrais utilisateurs de YouTube lorsqu'ils étaient sur la plate-forme". Les participants se sont connectés à leurs comptes et ont téléchargé une extension de navigateur pour capturer des données sur les vidéos recommandées. Ensuite, ils ont parcouru 20 recommandations, en suivant un chemin spécifié par les chercheurs, par exemple en cliquant uniquement sur la deuxième vidéo recommandée à partir du haut. Chaque participant a commencé à regarder une vidéo "initiale" attribuée au hasard (politique ou non politique) pour s'assurer que la vidéo initiale qu'il a regardée n'influence pas les recommandations ultérieures basées sur les préférences antérieures de l'utilisateur que l'algorithme reconnaîtrait.
Il y avait de nombreuses limites à cette étude, que les chercheurs ont décrites en détail. Peut-être avant tout, les participants n'étaient pas représentatifs des utilisateurs typiques de YouTube. La majorité des participants étaient de jeunes démocrates diplômés d'université qui regardaient YouTube sur des appareils exécutant Windows. Les chercheurs suggèrent que le contenu recommandé aurait pu différer si plus de participants étaient conservateurs ou de tendance républicaine, et donc supposément plus susceptibles de croire à la fraude électorale.
Il y a également eu un problème où YouTube a supprimé les vidéos de fraude électorale de la plate-forme [en décembre 2020,](https://www.Reuters.com/article/usa-election-youtube/youtube-to-remove-new-videos-that -falsely-claim-fraud-changed-u-s-election-outcome-idINL4N2IP38B) entraînant la perte d'accès des chercheurs à ce qu'ils ont décrit comme un nombre insignifiant de vidéos recommandées aux participants qui n'ont pas pu être évaluées.
L'équipe de Bisbee a rapporté que la principale conclusion du rapport était une preuve préliminaire d'un modèle de comportement de l'algorithme de YouTube, mais pas une véritable mesure de la propagation de la désinformation sur YouTube en 2020.
Tensions entre YouTube et les chercheurs
Alors que YouTube a déclaré que la plupart des utilisateurs avaient accédé au contenu électoral à partir de sources d'information officielles, l'équipe de Bisbee a compté les vidéos de Fox News et de la Maison Blanche parmi les contenus de fraude électorale qui auraient pu influencer les utilisateurs sceptiques de YouTube. Des sources importantes douteuses et la tension entre la protection compréhensible de YouTube sur le fonctionnement de son algorithme propriétaire contribuent à la confusion sur le rôle de l'algorithme de YouTube dans la diffusion de fausses informations aux négationnistes électoraux.
Le codirecteur du NYU Center for Social Media and Politics et co-auteur de l'étude, Joshua Tucker, a déclaré à Ars que jusqu'à ce que YouTube travaille de manière plus transparente avec davantage de chercheurs, "nous allons observer ce que nous sommes capables d'observer".
"Si les plates-formes choisissent de garder ces algorithmes privés, les chercheurs intéressés par les questions relatives à l'exposition au contenu essaieront de trouver leurs propres moyens de comprendre le contenu auquel les utilisateurs sont exposés", a déclaré Tucker.
Chercheuse principale de la NYU qui a également contribué à l'étude, Megan Brown a déclaré à Ars que "YouTube a constamment critiqué" les études auditant son algorithme "pour ne pas refléter avec précision les réalités de ce qui arrive aux vrais utilisateurs". Alors que Brown pense que le programme de recherche de YouTube lancé plus tôt cette année est un "bon début" pour accroître la transparence sur la plate-forme, les chercheurs sont toujours limités par les données que YouTube choisit de partager. Elle a déclaré que dans le passé, YouTube avait critiqué des études basées sur des données publiques fournies par YouTube, et qu'il n'était pas clair d'après la déclaration de YouTube quels aspects de l'étude de NYU ne reflétaient pas le fonctionnement du système de recommandation de YouTube.
"Dans cette étude, nous utilisons de vrais utilisateurs pour savoir ce qu'ils ont été recommandés lors de l'élection", a déclaré Brown. "Nous ne savons pas quelle norme doit être respectée pour refléter avec précision ce que les utilisateurs de YouTube sont recommandés, si la collecte des recommandations qu'ils ont vues ne respecte pas cette norme."
Un porte-parole de YouTube a déclaré à Ars qu'il est difficile "de tirer des conclusions de ce rapport" car les chercheurs ne fournissent qu'"un échantillon partiel des données qui, selon eux, ont été recommandées aux utilisateurs" et qu'ils ne "différencient pas le contenu recommandé par nos systèmes, et du contenu auquel les téléspectateurs s'abonnent activement." YouTube souligne également la recherche, qui, selon l'équipe de Bisbee, montre principalement que les préférences des utilisateurs - et non l'algorithme - sont à blâmer pour l'augmentation du contenu extrême. "Les recommandations de YouTube n'orientent pas réellement les téléspectateurs vers des contenus extrêmes", a déclaré le porte-parole de YouTube.
La bataille continue de Google contre les allégations de fraude électorale
Depuis 2020, Google a adopté une position plus ferme en bloquant activement la désinformation électorale sur YouTube, qui, selon l'équipe de Bisbee, était le "réseau de médias sociaux le plus populaire parmi les adultes américains" en 2020. Plus récemment, Google a maintenu le cap avant les élections de mi-mandat. , apparemment toujours en train de lutter pour empêcher les réclamations pour fraude électorale de 2020 de ses plateformes et services.
L'exemple le plus récent : Après [Donald Trump a lancé une diatribe sur la vérité sociale](https://www.salon.com/2022/08/29/demands-new-immediately-in-bizarre-truth-social-rant-_partner /) répétant les allégations de fraude électorale de 2020 plus tôt cette semaine, [Google a bloqué Truth Social du Play Store](https://www.Reuters.com/technology/truth-social-android-app-not-approved-google-play- store-axios-2022-08-30/), citant une modération de contenu insuffisante. Les rapports indiquent que Google s'inquiète du potentiel d'incitation à la violence de Truth Social, et l'enquête croissante du Congrès a récemment pris une décision qui indique que Google a de bonnes raisons de maintenir ses inquiétudes concernant les dangers réels résultant des allégations de fraude électorale semblant enflammer la base de Trump.
Jeudi, le comité restreint enquêtant sur l'attaque du 6 janvier a demandé à l'ancien président de la Chambre, Newt Gingrich, de partager des informations sur la façon dont les conseillers principaux ont aidé Trump à amplifier les fausses déclarations concernant les élections de 2020 dans les publicités télévisées. Le Congrès souhaite également que Gingrich explique son implication "dans divers autres aspects du plan visant à annuler les élections de 2020 et à bloquer le transfert de pouvoir, y compris après les violences du 6 janvier".
Alors que l'enquête se poursuit, Google et le Congrès considèrent que les fausses allégations concernant l'élection sont étroitement liées à l'incitation à la violence. Reuters a une série en cours documentant d'autres préoccupations concernant la violence potentiellement imminente liée à de fausses déclarations, y compris l'augmentation des "menaces de mort terroristes" des partisans de Trump " des responsables électoraux tout au long de 2021.