Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2596

Incidents associés

Incident 4508 Rapports
Kenyan Data Annotators Allegedly Exposed to Graphic Content for OpenAI's AI

'C'était la torture;' OpenAI aurait compté sur des ouvriers kenyans mal payés pour passer au crible un contenu horrible afin de rendre ChatGPT acceptable
gizmodo.com · 2023

Le monde apparemment simple, brillant et propre associé à la technologie est inévitablement presque toujours soutenu simultanément par quelque chose de plus sombre caché juste sous la surface. Des modérateurs de contenu blessés mentalement parcourant des torrents de Facebook ignoble messages à des enfants travailleurs surmenés qui exploitent le cobalt nécessaire pour les véhicules électriques de luxe, l'efficacité sans friction a un coût humain. Un nouveau rapport montre que c'est également vrai pour OpenAI, qui se démarque par l'IA générative.

Une nouvelle enquête de Time revendique OpenAI, le chouchou parvenu derrière le puissant nouveau chatbot IA génératif [ChatGPT](https://time. com/6247678/openai-chatgpt-kenya-workers/), s'est appuyé sur des travailleurs kenyans externalisés, dont beaucoup sont payés moins de 2 dollars de l'heure, pour passer au crible certains des coins les plus sombres d'Internet afin de créer un système de filtrage d'IA supplémentaire qui serait intégré dans ChatGPT pour le scanner à la recherche de signes des pires horreurs de l'humanité. Ce détecteur filtrerait alors essentiellement ChatGPT, qui a jusqu'à présent gagné plus d'un million d'utilisateurs, acceptable pour la masse publics. De plus, le détecteur aiderait à supprimer les entrées toxiques des grands ensembles de données utilisés pour former ChatGPT.

Alors que les utilisateurs finaux recevaient un produit sanitaire raffiné, les travailleurs kenyans essentiels agissaient comme une sorte de gardien de l'IA, parcourant des extraits de texte illustrant des récits vivants d'abus sexuels sur des enfants, de meurtre, de torture, de suicide et, d'inceste, le tout en graphique. détail.

OpenAI aurait travaillé avec une société américaine appelée Sama, qui est mieux connue pour employer des travailleurs au Kenya, en Ouganda et en Inde pour effectuer des tâches d'étiquetage de données pour le compte de géants de la Silicon Valley comme [Google](https://www.sama.com/ blog/google-project-guideline/) et Meta. Sama était en fait le plus grand modérateur de contenu de Meta en Afrique avant ce mois-ci lorsque la société a annoncé ils avaient cessé de travailler ensemble en raison de la " climat économique actuel. Sama et Meta font actuellement l'objet d'un procès intenté par un ancien modérateur de contenu qui allègue que les entreprises ont violé la constitution kenyane.

Dans le cas d'OpenAI, les travailleurs kenyans auraient gagné entre 1,32 $ et 2 $ de l'heure pour une entreprise dont les récents [rapports](https://www.semafor.com/article/01/09/2023/microsoft-eyes-10-billion- bet-on-chatgpt) suggèrent que Microsoft pourrait récupérer une injection de liquidités d'environ 10 milliards de dollars. Si cela se produit, note Semafor, OpenAI sera évalué à 29 milliards de dollars.

OpenAI n'a pas immédiatement répondu à la demande de commentaire de Gizmodo.

Comme certains modérateurs de contenu pour d'autres géants de la Silicon Valley, les travailleurs de Sama ont déclaré que leur travail leur restait souvent après leur déconnexion. L'un de ces travailleurs a déclaré à Time qu'il souffrait de visions récurrentes après avoir lu la description d'un homme ayant des relations sexuelles avec un chien. "C'était de la torture", a déclaré le travailleur.

Dans l'ensemble, les équipes de travailleurs auraient été chargées de lire et d'étiqueter environ 150 à 250 passages de texte en neuf heures. Bien que les travailleurs aient eu la possibilité de voir des conseillers en bien-être, ils ont néanmoins déclaré à Time qu'ils se sentaient mentalement marqués par le travail. Sama a contesté ces chiffres, déclarant à Time que les travailleurs ne devaient étiqueter que 70 passages par quart de travail.

Sama n'a pas immédiatement répondu à la demande de commentaire de Gizmodo.

"Notre mission est de garantir que l'intelligence générale artificielle profite à toute l'humanité, et nous travaillons dur pour construire des systèmes d'IA sûrs et utiles qui limitent les biais et les contenus préjudiciables", a déclaré OpenAI dans un communiqué envoyé à Time. "Classer et filtrer les [textes et images] nuisibles est une étape nécessaire pour minimiser la quantité de contenu violent et sexuel inclus dans les données de formation et créer des outils capables de détecter les contenus nuisibles."

Sama, qui aurait signé trois contrats avec OpenAI d'une valeur d'environ 200 000 dollars, a récemment décidé de quitter complètement l'espace d'étiquetage des données nuisibles, du moins pour le moment. Plus tôt ce mois-ci, la société aurait annoncé qu'elle annulerait le reste de son travail avec du contenu sensible, à la fois pour OpenAI et d'autres pour se concentrer plutôt sur les "solutions d'annotation de données de vision par ordinateur".

Le rapport révèle, dans des détails explicites, les pénibles difficultés humaines qui sous-tendent la technologie soi-disant « artificielle ». Bien que les nouvelles technologies apparemment sans friction créées par les plus grandes entreprises technologiques du monde annoncent souvent leur capacité à résoudre de gros problèmes avec des frais généraux réduits, la dépendance d'OpenAI à l'égard des travailleurs kenyans, comme les sociétés de médias sociaux, une grande armée de modérateurs de contenu internationaux, met en lumière les grandes forces de travail humaines souvent indissociable d'un produit final.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 86fe0f5