Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1534

Incidents associés

Incident 1641 Rapport
Facebook "News Feed" Allegedly Boosted Misinformation and Violating Content Following Use of MSI Metric

Loading...
Facebook a essayé de faire de sa plateforme un endroit plus sain. Il est devenu plus en colère à la place.
wsj.com · 2021

À l'automne 2018, Jonah Peretti, directeur général de l'éditeur en ligne BuzzFeed, a envoyé un e-mail à un haut responsable de Facebook Inc. Le contenu le plus controversé que les éditeurs ont produit devenait viral sur la plate-forme, a-t-il déclaré, créant une incitation à en produire davantage. Il a souligné le succès d'un article de BuzzFeed intitulé "21 choses que presque tous les Blancs sont coupables de dire", qui a reçu 13 000 partages et 16 000 commentaires sur Facebook, dont beaucoup de personnes critiquant BuzzFeed pour l'avoir écrit et se disputant sur la race. . D'autres contenus produits par la société, des vidéos d'actualité aux articles sur les soins personnels et les animaux, ont eu du mal à percer, a-t-il déclaré. M. Peretti a blâmé une refonte majeure que Facebook avait apportée à son algorithme de fil d'actualité plus tôt cette année-là pour stimuler les «interactions sociales significatives», ou MSI, entre amis et famille, selon des documents internes de Facebook examinés par le Wall Street Journal qui citent l'e-mail. BuzzFeed a construit son activité sur la création de contenu qui deviendrait viral sur Facebook et d'autres médias sociaux, il avait donc un intérêt direct dans tout changement d'algorithme qui nuisait à sa distribution. Pourtant, le courriel de M. Peretti a touché une corde sensible. Le directeur général de Facebook, Mark Zuckerberg, a déclaré que le but du changement d'algorithme était de renforcer les liens entre les utilisateurs et d'améliorer leur bien-être. Facebook encouragerait les gens à interagir davantage avec leurs amis et leur famille et à passer moins de temps à consommer passivement du contenu produit par des professionnels, ce qui, selon les recherches, était nocif pour leur santé mentale. Au sein de l'entreprise, cependant, les membres du personnel ont averti que le changement avait l'effet inverse, selon les documents. Cela faisait de la plate-forme Facebook un endroit plus en colère. Les chercheurs de l'entreprise ont découvert que les éditeurs et les partis politiques réorientaient leurs messages vers l'indignation et le sensationnalisme. Cette tactique a produit des niveaux élevés de commentaires et de réactions qui se sont traduits par un succès sur Facebook. « Notre approche a eu des effets secondaires malsains sur des tranches importantes de contenu public, comme la politique et les actualités », a écrit une équipe de scientifiques des données, signalant les plaintes de M. Peretti, dans une note examinée par le Journal. "C'est une responsabilité croissante", a écrit l'un d'eux dans une note ultérieure. Ils ont conclu que la forte pondération du contenu partagé par le nouvel algorithme dans son fil d'actualité rendait les voix en colère plus fortes. "La désinformation, la toxicité et le contenu violent sont excessivement répandus parmi les repartages", ont noté les chercheurs dans des notes internes. Certains partis politiques en Europe ont déclaré à Facebook que l'algorithme les avait amenés à modifier leurs positions politiques afin qu'ils résonnent davantage sur la plate-forme, selon les documents. "De nombreux partis, y compris ceux qui sont passés au négatif, s'inquiètent des effets à long terme sur la démocratie", a lu un rapport interne de Facebook, qui n'a pas nommé de partis spécifiques. Les employés de Facebook ont également discuté de l'autre motif moins médiatisé de l'entreprise pour effectuer le changement : les utilisateurs ont commencé à moins interagir avec la plate-forme, une tendance inquiétante, selon les documents. Le courriel et les mémos font partie d'un vaste éventail de communications internes de l'entreprise examinées par le Journal. Ils offrent un aperçu sans précédent de ce que Facebook sait des failles de sa plate-forme et de la façon dont il manque souvent de volonté ou de capacité pour y remédier. Ceci est le troisième d'une série d'articles basés sur ces informations. Dans une interview, Lars Backstrom, vice-président de l'ingénierie de Facebook, a déclaré que tout algorithme risque de promouvoir un contenu répréhensible ou nuisible pour certains utilisateurs. "Comme toute optimisation, il y aura des façons dont elle sera exploitée ou dont on tirera parti", a-t-il déclaré. "C'est pourquoi nous avons une équipe d'intégrité qui essaie de les retrouver et de trouver comment les atténuer le plus efficacement possible." Les scientifiques des données de cette équipe d'intégrité - dont le travail consiste à améliorer la qualité et la fiabilité du contenu sur la plate-forme - ont travaillé sur un certain nombre de changements potentiels pour freiner la tendance de l'algorithme révisé à récompenser l'indignation et les mensonges. M. Zuckerberg a résisté à certains des correctifs proposés, selon les documents, car il craignait qu'ils ne nuisent à l'autre objectif de l'entreprise, à savoir inciter les utilisateurs à interagir davantage avec Facebook. Anna Stepanov, qui dirigeait une équipe traitant de ces problèmes, a présenté à M. Zuckerberg plusieurs propositions de modifications destinées à lutter contre la prolifération de contenus faux et source de division sur la plate-forme, selon une note interne d'avril 2020 qu'elle a rédigée à propos du briefing. Un tel changement aurait supprimé un coup de pouce que l'algorithme a donné au contenu le plus susceptible d'être partagé par de longues chaînes d'utilisateurs. "Mark ne pense pas que nous pourrions aller plus loin" avec le changement, a-t-elle écrit à ses collègues après la réunion. M. Zuckerberg a déclaré qu'il était prêt à tester l'approche, a-t-elle déclaré, mais "nous ne lancerions pas s'il y avait un compromis matériel avec l'impact du MSI." Le mois dernier, près d'un an et demi après que Mme Stepanov a déclaré que M. Zuckerberg avait rejeté l'idée d'incorporer largement un correctif similaire, Facebook a annoncé qu'il "étendait progressivement certains tests pour mettre moins l'accent sur des signaux tels que la probabilité que quelqu'un commente". ou partager du contenu politique. Cette décision fait partie d'une campagne plus large, stimulée par des sondages auprès des utilisateurs, visant à réduire la quantité de contenu politique sur Facebook après que l'entreprise a été critiquée pour la façon dont les manifestants électoraux ont utilisé la plateforme pour remettre en question les résultats et organiser des manifestations qui ont conduit au 1er janvier. 6 émeute au Capitole de Washington. M. Backstrom, qui supervise le classement du contenu dans le fil d'actualité, a déclaré que Facebook avait apporté le changement récent car il estimait que les inconvénients de s'appuyer sur des mesures basées sur l'engagement pour les catégories de contenu sensibles telles que la politique l'emportaient sur les avantages. Le changement d'algorithme de 2018 a affecté la fonctionnalité centrale de Facebook, le fil d'actualité, un défilement constamment mis à jour et personnalisé des photos de famille d'amis et des liens vers des actualités. Il représente la majorité du temps que les près de trois milliards d'utilisateurs de Facebook passent sur la plate-forme. La société vend cette attention des utilisateurs aux annonceurs, à la fois sur Facebook et sur sa plate-forme sœur Instagram, représentant la quasi-totalité de ses 86 milliards de dollars de revenus l'année dernière. Un algorithme propriétaire contrôle ce qui apparaît dans le fil d'actualité de chaque utilisateur. Il prend en compte les amis des utilisateurs, le type de groupes qu'ils ont rejoints, les pages qu'ils ont aimées, les annonceurs qui ont payé pour les cibler et les types d'histoires populaires ou qui suscitent la conversation. Des modifications importantes de l'algorithme peuvent avoir des implications majeures pour l'entreprise, les annonceurs et les éditeurs. Facebook a apporté de nombreuses modifications à son algorithme au fil des ans. Le changement pour mettre l'accent sur MSI a été l'un des plus importants. « Un changement de classement est-il à l'origine des divisions du monde ? Non », a déclaré le porte-parole de Facebook Andy Stone dans une déclaration écrite. "La recherche montre que certaines divisions partisanes dans notre société se sont développées pendant de nombreuses décennies, bien avant que des plateformes comme Facebook n'existent même." News Corp, propriétaire du Wall Street Journal, a un accord commercial pour fournir des informations via Facebook. "La bonne chose" En janvier 2018, Facebook sortait d'une année difficile. Il était sur la défensive à Washington à propos de ce que les responsables du renseignement américain ont déclaré être l'utilisation par la Russie de la plate-forme pour s'immiscer dans l'élection présidentielle américaine de 2016. M. Zuckerberg a annoncé qu'il changeait l'objectif des chefs de produit Facebook d'aider les gens à trouver du contenu pertinent pour les aider à interagir davantage avec leurs amis et leur famille. Il a déclaré que ce changement était motivé par des recherches montrant que la consommation passive de médias sur Facebook - notamment la vidéo, qui avait explosé sur la plate-forme - n'était pas aussi bonne pour le bien-être que l'interaction avec d'autres personnes. Il a présenté le changement comme un sacrifice. "Maintenant, je veux être clair : en apportant ces changements, je m'attends à ce que le temps que les gens passent sur Facebook et certaines mesures d'engagement diminuent", a-t-il écrit sur Facebook. "Mais je m'attends également à ce que le temps que vous passez sur Facebook soit plus précieux. Et si nous faisons ce qu'il faut, je pense que ce sera également bon pour notre communauté et notre entreprise à long terme. Les vidéos de formation et les mémos internes de Facebook montrent une autre raison du changement : la préoccupation croissante de l'entreprise face à une baisse de l'engagement des utilisateurs, qui se réfère généralement à des actions telles que commenter ou partager des publications. L'engagement est considéré à l'intérieur de l'entreprise comme un signe important pour la santé de l'entreprise. Les commentaires, les likes et les partages ont diminué jusqu'en 2017, tandis que les messages "diffusés d'origine" - le paragraphe et la photo qu'une personne pourrait publier lorsqu'un chien meurt - ont poursuivi un déclin de plusieurs années qu'aucune intervention ne semblait pouvoir arrêter, selon les mémos internes. La crainte était que les utilisateurs finissent par cesser complètement d'utiliser Facebook. Un scientifique des données a déclaré dans une note de service de 2020 que les équipes de Facebook avaient étudié le problème et "n'avaient jamais vraiment compris pourquoi les métriques avaient diminué". Les membres de l'équipe ont finalement conclu que la prévalence de la vidéo et d'autres contenus produits par des professionnels, plutôt que des publications organiques d'individus, faisait probablement partie du problème. L'objectif du changement d'algorithme était d'inverser le déclin des commentaires et d'autres formes d'engagement, et d'encourager une publication plus originale. Cela récompenserait les publications qui ont suscité plus de commentaires et d'emojis d'émotion, qui ont été considérés comme plus significatifs que les goûts, selon les documents. Dans une vidéo de formation interne, un employé de Facebook a déclaré qu'en plus du "devoir éthique" de l'entreprise de ne pas transformer les utilisateurs en zombies avec trop de vidéo, elle avait des raisons commerciales d'intervenir. "Les gens vont probablement quitter l'application si c'est mauvais pour eux", a déclaré l'employé. Le classement repartage La solution de Facebook consistait à créer une formule qui mesurait le nombre d'interactions "significatives" qu'une publication suscitait, puis à organiser le fil d'actualité pour encourager autant que possible. Dans le cadre d'un système de points interne utilisé pour mesurer son succès, un « j'aime » valait un point ; une réaction, un partage sans texte ou une réponse à une invitation valait cinq points ; et un commentaire significatif, message, repartage ou RSVP, 30 points. Des multiplicateurs supplémentaires ont été ajoutés selon que l'interaction était entre les membres d'un groupe, des amis ou des étrangers. D'un point de vue commercial, cela a fonctionné. Comme Facebook l'avait prédit, le temps passé sur la plate-forme a diminué, mais l'effort pour maximiser les interactions entre les utilisateurs a ralenti la chute libre des commentaires et a surtout amélioré la métrique très importante des "personnes actives quotidiennement" utilisant Facebook, selon des tests effectués en août 2018. , mémos internes montrent. Le changement a eu des effets positifs. Le contenu partagé par des relations proches était plus fiable et les utilisateurs l'ont trouvé plus significatif que le matériel de connaissances plus éloignées, selon une note de service. Mais ces avantages ont été compensés par l'aspect du changement d'algorithme qui a favorisé les actions des utilisateurs comme les partages et les commentaires. Comme Facebook l'avait prévenu, le changement a nui à de nombreux éditeurs en ligne. Au premier semestre 2018, BuzzFeed a subi une baisse de trafic de 13 % par rapport aux six mois précédents, Breitbart a perdu 46 % et ABC News a perdu 12 %, selon la société de données en ligne Comscore. Topix, un site d'information connu pour ses forums communautaires locaux, a perdu 53 % de son trafic au cours de cette période. "Facebook était notre principal moteur de trafic à cette époque", a déclaré Chris Tolles, ancien PDG de Topix. "C'était certainement un problème pour nous." Topix a été acheté par Publishers Clearing House en 2019. "Le classement MSI ne récompense pas réellement le contenu qui génère des interactions sociales significatives." – Le PDG de Buzzfeed, Jonah Peretti, dans un e-mail adressé à un responsable de Facebook Dans des entretiens, plus d'une douzaine de responsables de l'édition ont décrit le changement de Facebook comme la goutte d'eau après plusieurs années de politiques en constante évolution qui les ont convaincus qu'ils ne pouvaient pas compter sur Facebook pour le trafic. BuzzFeed a pris de l'importance sur les confections Internet comme les listes et les quiz, mais au fil des ans, il a construit une opération d'information robuste et s'est développé de manière agressive dans la vidéo. Facebook a toujours été une source majeure de trafic pour BuzzFeed, bien que l'éditeur ait diversifié sa distribution ces dernières années. M. Peretti de Buzzfeed, dans son e-mail, a écrit que le nouvel algorithme semblait récompenser de manière disproportionnée la division, sur la base de ce que l'éditeur a vu dans ses propres chiffres et de ses observations sur les performances des publications des autres éditeurs. "Le classement MSI ne récompense pas réellement le contenu qui génère des interactions sociales significatives", a écrit M. Peretti dans son e-mail au responsable de Facebook, ajoutant que son personnel ressentait "une pression pour créer du mauvais contenu ou sous-performer". Ce n'était pas seulement du matériel qui exploitait les divisions raciales, écrivait-il, mais aussi de la «science à la mode / junky», des «nouvelles extrêmement dérangeantes» et des images grossières. Effet politique En Pologne, les changements ont rendu le débat politique sur la plate-forme plus désagréable, ont déclaré les partis politiques polonais à l'entreprise, selon les documents. Les documents ne précisent pas quelles parties. "L'équipe de gestion des médias sociaux d'une partie estime qu'elle a fait passer la proportion de ses messages de 50/50 positifs/négatifs à 80% négatifs, explicitement en fonction du changement d'algorithme", ont écrit deux chercheurs de Facebook dans un rapport interne d'avril 2019. rapport. L'engagement sur les publications positives et politiques a été considérablement réduit, laissant les partis de plus en plus dépendants des publications incendiaires et des attaques directes contre leurs concurrents. Nina Jankowicz, qui étudie les médias sociaux et la démocratie en Europe centrale et orientale en tant que boursière au Woodrow Wilson Center à Washington, a déclaré qu'elle avait entendu des plaintes de nombreux partis politiques de cette région selon lesquelles le changement d'algorithme rendait la communication directe avec leurs partisans via les pages Facebook. Plus difficile. Ils ont maintenant une incitation, a-t-elle dit, à créer des publications qui accumulent des commentaires et des partages – souvent en exploitant la colère – pour se faire connaître dans les flux des utilisateurs. Les chercheurs de Facebook ont écrit dans leur rapport qu'en Espagne, les partis politiques mènent des opérations sophistiquées pour faire voyager les messages Facebook aussi loin et rapidement que possible. "Ils ont appris que les attaques sévères contre leurs adversaires génèrent l'engagement le plus élevé", ont-ils écrit. "Ils prétendent qu'ils 'essayent de ne pas le faire', mais en fin de compte 'vous utilisez ce qui fonctionne'". Le débat en Espagne a augmenté de 43 %, selon une étude menée par Constella Intelligence, une société de protection contre les risques numériques. Les chercheurs de Facebook ont écrit dans leur rapport interne qu'ils avaient entendu des plaintes similaires de parties à Taïwan et en Inde. Brad Parscale, qui était le chef de la stratégie numérique pour la campagne présidentielle de Donald Trump en 2016, et s'est vanté que Facebook est l'endroit où M. Trump a remporté l'élection, a déclaré qu'il avait commencé à remarquer des changements dans l'algorithme dès la mi-2017, lorsque la performance des politiques les vidéos ont commencé à décliner. « ‘Sain’ est un mot de couverture pour ‘Nous devons réduire la diffusion des vidéos conservatrices et Trump’ », a-t-il déclaré dans une interview pour cet article. La présidente du Comité national républicain Ronna McDaniel, le chef de la majorité à la Chambre Kevin McCarthy (R., Californie) et M. Parscale ont rencontré des dirigeants de Facebook en juin 2018 pour enregistrer leurs plaintes. Lors de cette réunion, qui comprenait Joel Kaplan, chef de la politique publique mondiale de Facebook, les républicains ont été informés que les changements d'algorithme visaient à contrer la propagation de ce que l'entreprise considérait comme de la désinformation, selon M. Parscale. Corrections proposées En avril 2019, un scientifique des données de Facebook a proposé de réduire la propagation des "repartages profonds", ce qui signifie que le spectateur n'est pas un ami ou un adepte de l'affiche originale, selon une note interne. "Alors que la plate-forme FB offre aux gens la possibilité de se connecter, de partager et de s'engager, un effet secondaire malheureux est que le contenu nuisible et désinformant peut devenir viral, souvent avant que nous puissions l'attraper et atténuer ses effets", a-t-il écrit. "Les agents politiques et les éditeurs nous disent qu'ils s'appuient davantage sur la négativité et le sensationnalisme pour la distribution en raison des récents changements algorithmiques qui favorisent les partages." Plus tard, les scientifiques des données de Facebook se sont concentrés sur un aspect de l'algorithme remanié appelé "MSI en aval", qui rendait un message plus susceptible d'apparaître dans le fil d'actualité d'un utilisateur si l'algorithme calculait que les gens étaient susceptibles de le partager ou de le commenter au fur et à mesure de sa transmission. la chaîne des partages. Les premiers tests ont montré comment la réduction de cet aspect de l'algorithme pour les informations civiques et sanitaires a contribué à réduire la prolifération des faux contenus. Facebook a effectué le changement pour ces catégories au printemps 2020. Lorsque Mme Stepanov a présenté à M. Zuckerberg la proposition de l'équipe d'intégrité d'étendre ce changement au-delà du contenu civique et de santé - et quelques pays comme l'Éthiopie et le Myanmar où des changements étaient déjà en cours fait—M. Zuckerberg a déclaré qu'il ne voulait pas poursuivre si cela réduisait l'engagement des utilisateurs, selon les documents. James Barnes, un ancien employé de Facebook parti en 2019, a déclaré que Facebook avait espéré que donner la priorité à l'engagement des utilisateurs dans le fil d'actualité rapprocherait les gens. Mais la plate-forme était devenue si complexe que l'entreprise ne comprenait pas comment le changement pourrait se retourner contre lui. "Il n'y a pas de solution miracle facile", a-t-il déclaré.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd