Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2569

Incidentes Asociados

Incidente 4508 Reportes
Kenyan Data Annotators Allegedly Exposed to Graphic Content for OpenAI's AI

Los trabajadores de Kenia pagan menos de $ 2 por hora por OpenAI para trabajar en ChatGPT, según un informe
afrotech.com · 2023

ChatGPT, un chatbot de inteligencia artificial (IA), se ha convertido un tema de tendencia desde que llegó a la escena tecnológica.

Sin embargo, se ha hecho público un informe de investigación que detalla la supuesta explotación para mejorarlo.

Según TIME, se dice que OpenAI, el creador de ChatGPT, subcontrató a [Kenyan](https://afrotech.com/ listicle/kenyan-startup-wowzi-raises-3-2m-to-land-social-media-influencers-campaigns/) trabajadores que ganaron menos de $2 por hora para hacer que el chatbot fuera menos tóxico.

Los trabajadores están a cargo de Sama, una empresa con sede en San Francisco que contrata a personas en Kenia, Uganda e India. El informe detalla que OpenAI tenía el objetivo de alimentar una IA "con ejemplos etiquetados de violencia, discurso de odio y abuso sexual, y esa herramienta podría aprender a detectar esas formas de toxicidad en la naturaleza".

Luego, para obtener esas etiquetas, la empresa envió decenas de miles de fragmentos de texto extraídos de la dark web a Sama en noviembre de 2021.

La empresa alega que hubo tres contratos por valor de $200.000 y que a los trabajadores de Kenia se les pagaría $12,50 por hora.

"A pesar del papel fundamental que desempeñan estos profesionales de enriquecimiento de datos, un creciente cuerpo de investigación revela las condiciones laborales precarias que enfrentan estos trabajadores", dijo Partnership on AI, una coalición de organizaciones de IA de la que OpenAI es parte, según el medio. “Este puede ser el resultado de los esfuerzos por ocultar la dependencia de AI de esta gran fuerza laboral al celebrar las ganancias de eficiencia de la tecnología. Fuera de la vista también está fuera de la mente”.

Además de estar supuestamente mal pagados,, los trabajadores kenianos dicen que estaban "mentalmente marcados". del texto que tenían que leer.

“Eso fue una tortura”, dijo un trabajador anónimo de Sama. “Leerás una serie de declaraciones como esa durante toda la semana. Para cuando llega el viernes, estás perturbado por pensar en esa imagen”.

Debido al supuesto entorno de trabajo traumático, Sama canceló todo su trabajo antes de tiempo para OpenAI en febrero de 2022. A su vez, las dos partes llegaron a un acuerdo de que no se pagarían los $200 000 originales. OpenAI afirma que los contratos valieron "alrededor de $ 150,000 en el transcurso de la asociación".

Con respecto al efecto del etiquetado en la [salud mental] de los trabajadores de Sama, (https://afrotech.com/listicle/simone-biles-breaks-partnership-with-cerebral/) OpenAI compartió una declaración.

“… nos tomamos muy en serio la salud mental de nuestros empleados y de nuestros contratistas”, afirmó un portavoz de OpenAI. “Nuestro entendimiento anterior era que [en Sama] se ofrecían programas de bienestar y asesoramiento 1:1, los trabajadores podían optar por no participar en ningún trabajo sin penalización, la exposición a contenido explícito tendría un límite y la información confidencial sería manejada por trabajadores que fueron entrenados específicamente para hacerlo”.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • eeb4352