Incidentes Asociados

OpenAI, una empresa de inteligencia artificial, está acusada de pagar menos de $ 2 a los trabajadores de Kenia para que su chatbot ChatGPT sea menos tóxico.
Este informe se basa en una investigación realizada por la revista Time. Afirma que a los trabajadores de ChatGPT en Kenia se les encomendó la tarea de crear un sistema de filtro para hacer que ChatGPT sea más fácil, fácil de usar y más seguro para el uso diario.
Este trabajo me obligaba a consumir información inquietante sobre temas horrendos como el abuso sexual infantil, la brutalidad, el asesinato, el suicidio, la tortura, las autolesiones y el incesto.
Según el informe, parte del mismo dice: “La premisa de este proyecto era simple: alimentar una IA con ejemplos de violencia, incitación al odio y abuso sexual, y esa herramienta podría aprender a detectar sustancias tóxicas en la naturaleza”. ChatGPT incluiría un detector para detectar toxicidad en sus datos de entrenamiento y filtrarlos. También podría eliminar el texto tóxico de los conjuntos de datos de entrenamiento de futuros modelos de IA.
OpenAI envió miles de fragmentos de texto a una empresa de subcontratación de Kenia para obtener estas etiquetas. Esto se hizo a partir de noviembre de 2021. Gran parte de ese texto parecía haber sido extraído directamente de los rincones más oscuros de la web. Parte del texto describía gráficamente situaciones como el abuso sexual infantil, la brutalidad, el asesinato, el suicidio, la tortura o las autolesiones.
Sama es una empresa de datos de entrenamiento que se especializa en anotar datos para algoritmos de IA. OpenAI le ha dado este contrato a Sama.
Según la revista Time, los trabajadores ganaban entre $1,32 y $2 por hora, según su antigüedad y desempeño. Esta disparidad en el salario y el trabajo hace que el trabajo parezca explotador, a pesar de que su trabajo es un importante contribuyente a las industrias de miles de millones de dólares.
El informe de Time se basó en detalles gráficos proporcionados por los empleados de Sama, quienes compartieron algunas de las cosas más horribles que habían visto mientras trabajaban para OpenAI.
Una parte del informe dice: "La naturaleza traumática del trabajo finalmente llevó a Sama a cancelar todo su trabajo de OpenAI en febrero de 2022, ocho meses antes de lo planeado originalmente".