Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2569

Incidents associés

Incident 4508 Rapports
Kenyan Data Annotators Allegedly Exposed to Graphic Content for OpenAI's AI

Des travailleurs kenyans payés moins de 2 dollars de l'heure par OpenAI pour travailler sur ChatGPT, selon un rapport
afrotech.com · 2023

ChatGPT, un chatbot d'intelligence artificielle (IA), est devenu un sujet tendance depuis qu'il a frappé la scène technologique.

Cependant, un rapport d'enquête a été publié qui détaille l'exploitation présumée pour l'améliorer.

Selon TIME, OpenAI — le créateur de ChatGPT — aurait externalisé [Kenyan](https://afrotech.com/ listicle/kenyan-startup-wowzi-raises-3-2m-to-land-social-media-influencers-campaigns/) travailleurs qui gagnaient moins de 2 $ de l'heure pour rendre le chatbot moins toxique.

Les travailleurs sont sous Sama, une entreprise basée à San Francisco qui embauche des personnes au Kenya, en Ouganda et en Inde. Le rapport détaille qu'OpenAI avait pour objectif d'alimenter une IA "avec des exemples étiquetés de violence, de discours de haine et d'abus sexuels, et cet outil pourrait apprendre à détecter ces formes de toxicité dans la nature".

Ensuite, pour obtenir ces étiquettes, la société a envoyé des dizaines de milliers d'extraits de texte extraits du dark web à Sama en novembre 2021.

L'entreprise allègue qu'il y avait trois contrats d'une valeur de 200 000 dollars et que les travailleurs kenyans devaient être payés 12,50 dollars de l'heure.

"Malgré le rôle fondamental joué par ces professionnels de l'enrichissement de données, un nombre croissant de recherches révèle les conditions de travail précaires auxquelles ces travailleurs sont confrontés", a déclaré Partnership on AI, une coalition d'organisations d'IA dont OpenAI fait en fait partie, selon le point de vente. "Cela peut être le résultat d'efforts pour cacher la dépendance de l'IA à cette importante main-d'œuvre lors de la célébration des gains d'efficacité de la technologie. Loin des yeux, c'est aussi loin du cœur.

En plus d'être prétendument sous-payés,, les travailleurs kenyans disent qu'ils ont été "marqués mentalement" du texte qu'ils devaient lire.

"C'était de la torture", a déclaré un travailleur anonyme de Sama. « Vous lirez un certain nombre de déclarations comme celle-là tout au long de la semaine. Au moment où il arrive à vendredi, vous êtes dérangé de penser à cette image.

En raison de l'environnement de travail présumé traumatisant, Sama a annulé tout son travail tôt pour OpenAI en février 2022. À leur tour, les deux parties sont parvenues à un accord selon lequel les 200 000 $ initiaux ne seraient pas payés. OpenAI affirme que les contrats valaient "environ 150 000 dollars au cours du partenariat".

En ce qui concerne l'effet de l'étiquetage sur la [santé mentale] des travailleurs de Sama (https://afrotech.com/listicle/simone-biles-breaks-partnership-with-cerebral/), OpenAI a partagé une déclaration.

"... nous prenons très au sérieux la santé mentale de nos employés et de celles de nos sous-traitants", a déclaré un porte-parole d'OpenAI. "Notre compréhension précédente était que [at Sama] des programmes de bien-être et des conseils 1: 1 étaient proposés, les travailleurs pouvaient se retirer de tout travail sans pénalisation, l'exposition à un contenu explicite aurait une limite et les informations sensibles seraient traitées par des travailleurs qui ont été spécialement formés pour le faire.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • eeb4352