Incidents associés

OpenAI, une société d'intelligence artificielle, est accusée d'avoir payé moins de 2 dollars à des travailleurs kenyans pour rendre son chatbot ChatGPT moins toxique.
Ce rapport est basé sur une enquête par Time Magazine. Il affirme que les employés de ChatGPT au Kenya ont été chargés de créer un système de filtrage pour rendre ChatGPT plus facile, convivial et plus sûr pour une utilisation quotidienne.
Ce travail m'obligeait à consommer des informations dérangeantes sur des sujets horribles tels que les abus sexuels sur enfants, la brutalité, le meurtre, le suicide, la torture, l'automutilation et l'inceste.
Selon le rapport, une partie de celui-ci se lit comme suit : "La prémisse de ce projet était simple : nourrir une IA avec des exemples de violence, de discours de haine et d'abus sexuels, et cet outil pourrait apprendre à détecter les substances toxiques dans la nature". ChatGPT inclurait un d étecteur pour détecter la toxicité dans ses données de formation et les filtrer. Cela pourrait également supprimer le texte toxique des ensembles de données d'entraînement des futurs modèles d'IA.
OpenAI a envoyé des milliers d'extraits de texte à une société de sous-traitance kenyane pour obtenir ces étiquettes. Cela a été fait à partir de novembre 2021. Une grande partie de ce texte semblait avoir été extraite directement des coins les plus sombres du Web. Une partie du texte décrivait graphiquement des situations telles que l'abus sexuel d'enfants, la brutalité, le meurtre, le suicide, la torture ou l'automutilation.
Sama est une entreprise de données de formation spécialisée dans l'annotation de données pour les algorithmes d'IA. OpenAI a donné ce contrat à Sama.
Selon Time Magazine, les travailleurs gagnaient entre 1,32 $ et 2 $ de l'heure, selon leur ancienneté et leurs performances. Cette disparité de salaire et d'emploi donne l'impression que le travail est une exploitation, même si leur travail est un contributeur majeur aux industries d'un milliard de dollars.
Le rapport de Time était basé sur des détails graphiques fournis par les employés de Sama, qui ont partagé certaines des choses les plus horribles qu'ils avaient vues en travaillant pour OpenAI.
** Une partie du rapport indique : « La nature traumatisante du travail a finalement conduit Sama à annuler tout son travail OpenAI en février 2022, huit mois plus tôt que prévu initialement. » **