Incidents associés

La modération de contenu est exténuante, travail profondément traumatisant. Les travailleurs ne durent généralement pas plus d'un an, et en raison des choses horribles qu'ils doivent voir, ils se retrouvent souvent avec [un SSPT durable] (https://www.theverge.com/2020/5/12/21255870 /facebook-content-moderator-settlement-scola-ptsd-mental-health) une fois qu'ils sont partis.
Cela dit, pour qu'Internet existe fonctionnellement, c'est aussi un travail nécessaire. Les coins non modérés d'Internet sont des zones d'enfer pures et totales, remplies des types de violence et de dépravation dont les modérateurs s'efforcent de nous sauver. Et pourtant, malgré à la fois la difficulté et l'importance du travail qu'elles accomplissent, les entreprises technologiques avec des sommes d'argent abrutissantes continuent pour payer les travailleurs de la modération, en particulier ceux qui vivent dans les pays du Sud, [étonnamment peu](https://www.theverge.com/2019/2/25/18229714/cognizant-facebook-content-moderator-interviews-trauma-working -conditions-arizona).
Ajoutez à cette gamme de géants de la Silicon Valley le dernier chouchou de l'industrie : OpenAI.
Time rapporte que afin d'intégrer des outils de modération dans ses systèmes d'IA, la société d'intelligence artificielle a payé des travailleurs au Kenya _moins de 2 $ par an heure _pour modérer un contenu absolument horrifiant - un contenu qui aurait été si profondément troublant que Sama, le sous-traitant de modération externe d'OpenAI, devrait mettre fin à son contrat avec OpenAI huit mois plus tôt que prévu.
"C'était de la torture", a déclaré au magazine un animateur Sama sous-payé, particulièrement traumatisé par l'histoire d'un homme ayant eu des relations sexuelles avec un chien devant un enfant. "Vous lirez un certain nombre de déclarations comme celle-là tout au long de la semaine. Au moment où il arrive à vendredi, vous êtes dérangé de penser à cette image."
Selon le magazine, OpenAI a signé l'accord initial avec Sama - un entrepreneur assez notoire qui notamment [vient de se terminer](https://www.businessinsider. com/facebook-content-moderation-jobs-partnership-africa-sama-majorel-2023-1) un contrat à long terme avec Facebook - en novembre 2021. Sama lui-même a reçu 12,50 $ de l'heure d'OpenAI, mais il semble que la plupart des cet argent n'est jamais parvenu à ses travailleurs.
Après les impôts et l'entreprise prenant sa propre part, les modérateurs réels rapportaient environ 1,30 $ à 1,50 $ de l'heure, atteignant peut-être 2 $ s'ils atteignaient tous leurs indicateurs de performance, ce qui, selon Time, incluait des éléments tels que la précision et la vitesse. Et bien que Nairobi n'ait pas d'exigence de salaire minimum, nous pouvons probablement tous convenir que payer des individus moins de 2 dollars de l'heure pour lire des histoires sur "l'abus sexuel d'enfants, la bestialité, le meurtre, le suicide, la torture, l'automutilation et l'inceste" écrites en le « détail graphique » est faux, en particulier lorsque l'entreprise qui paie le travail est en train de conclure un accord avec Microsoft (https://futurism.com/the-byte/microsoft-openai-office-deal) qui apportera sa valeur à 29 milliards de dollars.
_Time _rapporte que Sama a également proposé à ses employés des "conseils en matière de bien-être" pour les soutenir dans le difficile travail de modération, mais les employés affirment que ces soi-disant services de conseil étaient à la fois rares en raison des exigences de productivité et insuffisants, les travailleurs étant prétendument poussés à assister à des séances de groupe au lieu de la thérapie individuelle qui leur avait été promise. (Sama, par Time, réfute cette affirmation et soutient que les conseillers étaient toujours disponibles.)
La relation entre OpenAI et Sama, quant à elle, s'est apparemment tendue.
Les détails sont un peu flous, mais vers février 2022, OpenAI aurait embauché Sama pour l'aider dans un projet différent, cette fois lié à sa technologie de génération d'images. Les employés de Sama ont rassemblé une variété d'images horriblement graphiques, qui devaient être transmises à OpenAI dans le but de former une machine différente - vraisemblablement [DALL-E 2](https://futurism.com/the-byte/openai-dall -e2-realistic-images-descriptions) — par rapport au contenu visuel graphique. Une grande partie du contenu collecté par les employés de Sama appartenait à une catégorie de contenu particulièrement flagrante appelée C4, qui contient des images illégales en vertu de la loi américaine.
Après avoir découvert que les travailleurs de Sama avaient collecté du matériel dans cette catégorie, les entreprises sont apparemment devenues moins amicales.
"L'équipe d'Afrique de l'Est a immédiatement fait part de ses inquiétudes à nos dirigeants. Sama a immédiatement mis fin au projet pilote de classification d'images et a annoncé que nous annulerions tous les [projets] restants avec OpenAI", a déclaré un porte-parole de Sama à Time. "Les personnes travaillant avec le client n'a pas examiné la demande par les voies appropriées. Après un examen de la situation, des personnes ont été licenciées et de nouvelles politiques de vérification des ventes et des garde-fous ont été mis en place. »
De son côté, OpenAI a déclaré à Time qu'il n'avait jamais explicitement demandé à Sama de collecter du contenu C4.
"Ce contenu n'est pas nécessaire comme entrée pour nos filtres de pré-formation et nous demandons à nos employés de l'éviter activement. Dès que Sama nous a dit qu'ils avaient tenté de collecter du contenu dans cette catégorie, nous avons précisé qu'il y avait eu une mauvaise communication et que nous Je ne voulais pas de ce contenu", a déclaré le fabricant d'IA à Time. "Et après avoir réalisé qu'il y avait eu un malentendu, nous n'avons pas ouvert ni affiché le contenu en question - nous ne pouvons donc pas confirmer s'il contenait des images dans la catégorie C4. "
Et comme pour le reste des allégations de Time's, OpenAI soutient en outre qu'il essaie simplement de rendre le monde meilleur avec son produit. La modération de contenu n'est qu'une partie essentielle, bien que malheureuse, de cette mission.
"Notre mission est de garantir que l'intelligence artificielle générale profite à toute l'humanité, et nous travaillons dur pour construire des systèmes d'IA sûrs et utiles qui limitent les biais et les contenus préjudiciables", a déclaré un porte-parole d'OpenAI au magazine. "Classer et filtrer les [textes et images] nuisibles est une étape nécessaire pour minimiser la quantité de contenu violent et sexuel inclus dans les données de formation et créer des outils capables de détecter les contenus nuisibles."
Assez juste. Pourtant, la nécessité de la modération n'est pas une excuse pour employer des sous-traitants qui, à maintes reprises, ont prouvé qu'ils traitaient atrocement leurs travailleurs - c'est plutôt une raison de prendre très bien soin des employés qui prennent l'un des pires devoirs. Et payer des salaires aussi misérables alors que ses propres coffres sont si profonds semble être de très mauvais goût.
OpenAI a déjà des poches assez profondes, et elles sont sur le point de devenir [beaucoup plus profondes] (https://futurism.com/the-byte/microsoft-10000-layoffs-openai). Il doit y avoir une meilleure façon.