Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1723

Incidents associés

Incident 2151 Rapport
Facebook Content Moderators Demand Better Working Conditions Due to Allegedly Inadequate AI Content Moderation

Loading...
Lettre ouverte des modérateurs de contenu concernant la pandémie
foxglove.org.uk · 2020

novembre 2020

Mark Zuckerberg, Sheryl Sandberg, Anne Heraty (PDG, CPL/Covalen), Julie Sweet (PDG, Accenture)

Par e-mail et publication sur les canaux Workplace de Facebook

Lettre ouverte des modérateurs de contenu concernant la pandémie

Cher M. Zuckerberg, Mme Sandberg, Mme Heraty, Mme Sweet

Nous, les modérateurs de contenu Facebook soussignés et les employés de Facebook, écrivons pour exprimer notre consternation face à votre décision de risquer nos vies - et la vie de nos collègues et de nos proches - pour maintenir les bénéfices de Facebook pendant la pandémie.

Après des mois à autoriser les modérateurs de contenu à travailler à domicile, face à une pression intense pour garder Facebook exempt de haine et de désinformation, vous nous avez forcés à retourner au bureau. Les modérateurs qui obtiennent une note du médecin concernant un risque personnel de COVID ont été dispensés de se présenter en personne. Les modérateurs ayant des parents vulnérables, qui pourraient mourir s'ils contractaient le COVID de notre part, ne l'ont pas fait.

La pandémie a été bonne pour Facebook. Plus de 3 milliards de personnes ont maintenant rejoint les services Facebook, créant plus de demande que jamais pour notre travail. M. Zuckerberg a presque doublé sa fortune pendant la crise. Il vaut maintenant bien plus de 100 milliards de dollars. Cela a également été bon pour les sous-traitants de Facebook : CPL, l'un des principaux sous-traitants européens, doit être vendu pour 318 millions d'euros.

Malgré d'énormes sommes qui affluent vers chacun de vous en tant que dirigeants d'entreprise, vous avez refusé la prime de risque des modérateurs. Un modérateur de contenu au bureau d'Accenture à Austin, au Texas, gagne généralement 18 $/heure.

Avant la pandémie, la modération de contenu était de loin le travail le plus brutal de Facebook. Nous avons pataugé dans la violence et la maltraitance des enfants pendant des heures. Les modérateurs travaillant sur le contenu pédopornographique avaient des objectifs augmentés pendant la pandémie, sans soutien supplémentaire.

Maintenant, en plus d'un travail psychologiquement toxique, s'accrocher au travail signifie entrer dans une zone chaude. Dans plusieurs bureaux, plusieurs cas de COVID se sont produits au sol. Les travailleurs ont demandé à la direction de Facebook et à la direction de vos entreprises de sous-traitance comme Accenture et CPL de prendre des mesures urgentes pour nous protéger et valoriser notre travail. Vous avez refusé. Nous publions cette lettre car nous n'avons pas le choix.

Arrêtez de risquer inutilement la vie des modérateurs

Il est important d'expliquer que la raison pour laquelle vous avez choisi de risquer nos vies est que cette année, Facebook a essayé d'utiliser "l'IA" pour modérer le contenu, et a échoué.

Au début de la pandémie, le personnel à temps plein de Facebook et les modérateurs de contenu travaillaient à domicile. Pour couvrir le besoin pressant de modérer les masses de violence, de haine, de terrorisme, de maltraitance d'enfants et d'autres horreurs que nous combattons pour vous chaque jour, vous avez cherché à substituer à notre travail le travail d'une machine.

Sans en informer le public, Facebook a entrepris une expérience massive en direct de modération de contenu fortement automatisée. La direction a déclaré aux modérateurs que nous ne devrions plus voir certaines variétés de contenu toxique apparaître dans l'outil de révision à partir duquel nous travaillons, comme la violence graphique ou la maltraitance des enfants, par exemple.

L'IA n'était pas à la hauteur. Des discours importants ont été balayés dans la gueule du filtre Facebook et les contenus à risque, comme l'automutilation, sont restés en place.

La leçon est claire. Les algorithmes de Facebook sont à des années d'atteindre le niveau de sophistication nécessaire pour modérer automatiquement le contenu. Ils n'y arriveront peut-être jamais.

Cela soulève une question crue. Si notre travail est si essentiel à l'activité de Facebook que vous nous demanderez de risquer nos vies au nom de la communauté Facebook - et du profit - ne sommes-nous pas, en fait, le cœur de votre entreprise ?

Sans notre travail, Facebook est inutilisable. Son empire s'effondre. Vos algorithmes ne peuvent pas repérer la satire. Ils ne peuvent pas séparer le journalisme de la désinformation. Ils ne peuvent pas réagir assez rapidement à l'automutilation ou à la maltraitance des enfants. Nous pouvons.

Facebook a besoin de nous. Il est temps que vous le reconnaissiez et que vous appréciiez notre travail. Sacrifier notre santé et notre sécurité pour le profit est immoral.

Ce sont nos demandes.

  1. Protégez les modérateurs et leurs familles. Pour le moment, seuls les modérateurs de contenu individuels avec une note du médecin indiquant qu'ils présentent un risque élevé sont dispensés de travailler au bureau. Même cela n'est pas offert dans certains lieux de travail. Ceux qui vivent avec une personne à risque - qui ont, par exemple, un enfant atteint d'épilepsie - ont été contraints d'entrer. Tous les modérateurs de contenu à haut risque ou qui vivent avec une personne à haut risque de Covid devraient être autorisés à travailler à domicile indéfiniment.

  2. Maximisez le travail à domicile. Le travail qui peut être effectué à domicile doit continuer à être effectué à domicile. Vous avez précédemment déclaré que la modération de contenu ne peut pas être effectuée à distance pour des raisons de sécurité. Si tel est le cas, il est temps de changer fondamentalement la façon dont le travail est organisé. Il existe une culture omniprésente et inutilement secrète sur Facebook. Certains contenus, tels que les contenus criminels, peuvent nécessiter une modération dans les bureaux de Facebook. Le reste doit être fait à la maison.

  3. Offrez une prime de risque. Si vous voulez que les modérateurs risquent leur vie pour maintenir la « communauté » et le profit, vous devez payer. Les modérateurs qui travaillent dans le bureau sur du matériel à haut risque (par exemple, la maltraitance des enfants) devraient recevoir une prime de risque de 1,5 fois leur salaire habituel.

  4. Mettre fin à l'externalisation. Il y a, si quelque chose, plus de clameurs que jamais pour une modération agressive du contenu sur Facebook. Cela nécessite notre travail. Facebook devrait intégrer le personnel de modération du contenu en interne, nous donnant les mêmes droits et avantages que le personnel complet de Facebook.

  5. Offrir de vrais soins de santé et de psychiatrie. Les employés de Facebook bénéficient de divers avantages, notamment une assurance maladie privée et des visites chez des psychiatres. Les modérateurs de contenu, qui supportent le poids du traumatisme de santé mentale associé au contenu toxique de Facebook, se voient proposer 45 minutes par semaine avec un «coach bien-être». Ces « coachs » ne sont généralement pas des psychologues ou des psychiatres et sont contractuellement interdits de diagnostic ou de traitement. Et ils ne peuvent généralement pas établir une relation de confiance avec les modérateurs, car les travailleurs savent que la direction de Facebook (et la direction d'Accenture/CPL) demande aux « coachs » de révéler des détails confidentiels sur les séances de conseil. Les modérateurs méritent au moins autant de soutien en matière de santé mentale et physique que le personnel complet de Facebook.

La crise actuelle met en évidence qu'au cœur de l'activité de Facebook se trouve une profonde hypocrisie. En externalisant nos emplois, Facebook implique que les 35 000 d'entre nous qui travaillent avec modération sont en quelque sorte périphériques aux médias sociaux. Pourtant, nous faisons tellement partie intégrante de la viabilité de Facebook que nous devons risquer notre vie pour venir travailler.

Il est temps de réorganiser le travail de modération de Facebook sur la base de l'égalité et de la justice. Nous sommes au cœur de l'activité de Facebook. Nous méritons les droits et les avantages du personnel complet de Facebook. Nous attendons avec impatience votre réponse publique.

Très sincèrement vôtre,

Andrea, Angela De Hoyos Hart, Ani Niow, Audrey Martin, Aune Mitchell, Azer Gueco, Baris Aytan, Brady Bennett, Cam Herringshaw, Carlin Scrudato, Carlos Ancira, Charles Maxwell, Chris Chan, Christopher Glenn, Claire Sexton, Crystal Chan, Danica Michaels, Daniel Baxley, Daniel Finlayson, Daniel Rezende Fuser, Danille Sindac, Diego Ramirez, Dominick Martinez, Douglas Hart, Erin Donohue, Fletcher West, Hua Hoai Nam, James J. Morrow, Jeremy Calvert, Jess L, Jessica den Boer, John Reese, John Royales McTurk, Jonathan Daniel, Jonathan de la Rosa, Joseph Pouttu, Joseph Sarhan, Joshua Sklar, Katie Adamsky, Kelly Lambert, Kevin Fei, Kevin Liao, Kiara Gaytan, Lucy Yang, Marcus Rodriguez, Maria Sam, Mark Reitblatt, Mayra Ota Coffey, Michael Thot, Mike Vitousek, Naomi Shiffman, Nathan Tokala, Niccolo Coluccio, Nicholas O'Brien, Nick Azcarate, Nick Martens, Noah Korotzer, Nuno Picareta, Palina Andrayuk, Phil Wills, Phillip Shih, Phong Vu, Purnam Jantrania , Raimonds Gabalis, Ramazan Sahin, Rena, Rober Boyce, Ryan Hoyt, Sam Ringel, Sara Valderrama, Sarah Dunn, Shom Mazumder, Steffan Voges, Stephanie Marina, Stuart Millican, Tariq Yusuf, Thi Cat Tuong Trinh, Tina Wall, Tom G, Tristam MacDonald, Vahid Liaghat, Vitor Cordeiro Pileggi , Zoya Waliany, (et 248 autres modérateurs de contenu qui ont signé de manière anonyme)

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd