Incidentes Asociados

El mundo aparentemente simple, brillante y limpio asociado con la tecnología inevitablemente casi siempre se sustenta simultáneamente en algo más oscuro escondido justo debajo de la superficie. De mentalmente lesionado moderadores de contenido revisando torrentes de vil Facebook publicaciones para trabajadores infantiles con exceso de trabajo extrayendo el cobalto necesaria para los vehículos eléctricos de lujo, la eficiencia sin fricción tiene un costo humano. Un nuevo informe muestra que eso es igualmente cierto para el destacado OpenAI de IA generativa.
Una nueva investigación de Time afirma que OpenAI, el favorito advenedizo detrás del nuevo y poderoso chatbot generativo de IA [ChatGPT](https://time. com/6247678/openai-chatgpt-kenya-workers/), se basó en trabajadores kenianos subcontratados, muchos de los cuales pagaban menos de $2 por hora, para filtrar algunos de los rincones más oscuros de Internet con el fin de crear un sistema de filtro de IA adicional que se integraría en ChatGPT para escanearlo en busca de signos de los peores horrores de la humanidad. Ese detector esencialmente filtraría ChatGPT, que hasta ahora ganó más de 1 millón de usuarios, apetecible para la masa audiencias Además, según los informes, el detector ayudaría a eliminar las entradas tóxicas de los grandes conjuntos de datos utilizados para entrenar ChatGPT.
Si bien los usuarios finales recibieron un producto sanitario pulido, los trabajadores esenciales de Kenia actuaron como una especie de custodios de IA, escaneando fragmentos de texto que, según se informa, representaban relatos vívidos de abuso sexual infantil, asesinato, tortura, suicidio e incesto, todo en gráficos. detalle.
Según se informa, OpenAI trabajó con una empresa estadounidense llamada Sama, que es mejor conocida por emplear trabajadores en Kenia, Uganda e India para realizar tareas de etiquetado de datos en nombre de gigantes de Silicon Valley como [Google] (https://www.sama.com/ blog/google-project-guideline/) y Meta. Sama era en realidad el moderador de contenido más grande de Meta en África antes de este mes cuando la compañía anunció que habían dejado de trabajar juntos debido a la " clima económico actual”. Sama y Meta son actualmente objeto de una demanda por parte de un ex moderador de contenido que alega que las empresas violaron la constitución de Kenia.
En el caso de OpenAI, los trabajadores de Kenia supuestamente ganaban entre $1,32 y $2 por hora para una empresa cuyos [informes] recientes (https://www.semafor.com/article/01/09/2023/microsoft-eyes-10-billion- bet-on-chatgpt) sugieren que podría recuperar una inyección de efectivo de Microsoft de alrededor de $ 10 mil millones. Si eso sucede, señala Semafor, OpenAI tendrá un valor de $ 29 mil millones.
OpenAI no respondió de inmediato a la solicitud de comentarios de Gizmodo.
Al igual que algunos moderadores de contenido de otros gigantes de Silicon Valley, los trabajadores de Sama dijeron que su trabajo a menudo se quedaba con ellos después de desconectarse. Uno de esos trabajadores le dijo a Time que sufría de visiones recurrentes después de leer la descripción de un hombre teniendo sexo con un perro. “Eso fue una tortura”, dijo el trabajador.
En general, se informó que los equipos de trabajadores tenían la tarea de leer y etiquetar entre 150 y 250 pasajes de texto en un turno de nueve horas. Aunque a los trabajadores se les otorgó la posibilidad de ver a consejeros de bienestar, le dijeron a Time que se sentían mentalmente marcados por el trabajo. Sama cuestionó esas cifras y le dijo a Time que solo se esperaba que los trabajadores etiquetaran 70 pasajes por turno.
Sama no respondió de inmediato a la solicitud de comentarios de Gizmodo.
“Nuestra misión es garantizar que la inteligencia artificial general beneficie a toda la humanidad, y trabajamos arduamente para construir sistemas de IA seguros y útiles que limiten el sesgo y el contenido dañino”, dijo OpenAI en un comunicado enviado a Time. "Clasificar y filtrar [texto e imágenes] dañinos es un paso necesario para minimizar la cantidad de contenido violento y sexual incluido en los datos de entrenamiento y crear herramientas que puedan detectar contenido dañino".
Sama, quien supuestamente había firmado tres contratos con OpenAI por un valor aproximado de $ 200,000, recientemente decidió salir del espacio de etiquetado de datos dañinos por completo, al menos por ahora. A principios de este mes, la compañía supuestamente anunció que cancelaría el resto de su trabajo con contenido confidencial, tanto para OpenAI como para otros, para centrarse en cambio en "soluciones de anotación de datos de visión por computadora".
El informe revela, con detalles explícitos, las arduas dificultades humanas que sustentan la tecnología supuestamente "artificial". Aunque las nuevas tecnologías, aparentemente sin fricciones, creadas por las principales empresas tecnológicas del mundo a menudo anuncian su capacidad para resolver grandes problemas con gastos generales reducidos, la dependencia de OpenAI de los trabajadores de Kenia, como el gran ejército de moderadores de contenido internacional de las empresas de redes sociales, arroja luz sobre las grandes fuerzas laborales humanas. a menudo inseparable de un producto final.