Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2546

Incidentes Asociados

Incidente 4508 Reportes
Kenyan Data Annotators Allegedly Exposed to Graphic Content for OpenAI's AI

Loading...
OpenAI aparentemente pagó a personas en el mundo en desarrollo $ 2 / hora para mirar el contenido más perturbador imaginable
futurism.com · 2023

La moderación del contenido es agotadora, [un trabajo profundamente traumático] (https://www.wired.com/2014/10/content-moderation/). Los trabajadores generalmente no duran más de un año, y debido a las cosas horribles que tienen que ver, a menudo quedan con [TEPT duradero] (https://www.theverge.com/2020/5/12/21255870 /facebook-content-moderator-settlement-scola-ptsd-mental-health) una vez que se vayan.

Dicho esto, para que Internet exista funcionalmente, también es un trabajo necesario. Los rincones no moderados de Internet son zonas infernales puras y absolutas, llenas de los tipos de violencia y depravación de los que los moderadores trabajan para salvarnos al resto de nosotros. Y, sin embargo, a pesar de la dificultad y la importancia del trabajo que realizan, las empresas de tecnología con [cantidades de dinero alucinantes] (https://futurism.com/the-byte/openai-billions-bad-ai) continúan pagar a los trabajadores de moderación, especialmente a los que viven en el Sur Global, [sorprendentemente poco](https://www.theverge.com/2019/2/25/18229714/cognizant-facebook-content-moderator-interviews-trauma-working -condiciones-arizona).

Agregue a esa alineación de gigantes de Silicon Valley el último favorito de la industria: OpenAI.

Time informa que para incorporar herramientas de moderación en sus sistemas de IA, la empresa de inteligencia artificial ha estado pagando a los trabajadores en Kenia _menos de $2 por hora _para moderar contenido absolutamente aterrador, material supuestamente tan profundamente perturbador que el contratista externo de moderación de OpenAI, Sama, tiene previsto finalizar su contrato con OpenAI ocho meses antes de lo previsto.

"Eso fue una tortura", dijo a la revista un moderador mal pagado de Sama, que estaba particularmente traumatizado por una historia sobre un hombre que tenía relaciones sexuales con un perro frente a un niño. "Leerás una serie de declaraciones como esa durante toda la semana. Para cuando llegue el viernes, estarás perturbado por pensar en esa imagen".

Según la revista, OpenAI firmó el acuerdo inicial con Sama, un [contratista bastante notorio] (https://futurism.com/facebook-content-mod-sweatshop) que, en particular, [acaba de terminar] (https://www.businessinsider. com/facebook-content-moderation-jobs-partnership-africa-sama-majorel-2023-1) un contrato a largo plazo con Facebook, en noviembre de 2021. Sama recibió $ 12.50 por hora de OpenAI, pero parece que la mayoría de ese dinero nunca llegó a sus trabajadores.

Después de los impuestos y de que la empresa se llevara su propia parte, los moderadores reales supuestamente se llevaban a casa entre $1,30 y $1,50 por hora, y tal vez llegaran a $2 si alcanzaban todos sus indicadores de rendimiento, que según Time incluían aspectos como la precisión y la velocidad. Y aunque Nairobi no tiene un requisito de salario mínimo, probablemente todos podamos estar de acuerdo en que pagar a las personas menos de $ 2 por hora para leer historias sobre "abuso sexual infantil, bestialidad, asesinato, suicidio, tortura, autolesiones e incesto" escrito en El "detalle gráfico" es incorrecto, especialmente cuando la empresa que paga por el trabajo está supuestamente cerrando un trato con Microsoft que traerá su valor a $ 29 mil millones.

_Time _informa que Sama también ofreció a sus empleados "consejería de bienestar" para apoyarlos en el difícil trabajo de moderación, pero los empleados dicen que esos llamados servicios de consejería eran escasos debido a las demandas de productividad e insuficientes, ya que los trabajadores supuestamente fueron obligados a asistir a sesiones grupales en lugar de la terapia individual que les prometieron. (Sama, por Time, refuta esta afirmación y sostiene que los consejeros siempre estuvieron disponibles).

Mientras tanto, la relación entre OpenAI y Sama aparentemente se volvió tensa.

Los detalles son un poco confusos, pero alrededor de febrero de 2022, OpenAI supuestamente contrató a Sama para ayudar con un proyecto diferente, esta vez relacionado con su tecnología de generación de imágenes. Los empleados de Sama recopilaron una variedad de imágenes terriblemente gráficas, que debían pasarse a OpenAI con el fin de entrenar una máquina diferente, presumiblemente [DALL-E 2] (https://futurism.com/the-byte/openai-dall -e2-realistic-images-descriptions) — contra el contenido visual gráfico. Gran parte del contenido que recopilaron los trabajadores de Sama pertenecía a una categoría de contenido particularmente atroz denominada C4, que contiene imágenes que son ilegales según la ley de EE. UU.

Después de que se descubrió que los trabajadores de Sama habían recolectado material en esa categoría, las empresas aparentemente se volvieron menos amigables.

"El equipo de África Oriental expresó su preocupación a nuestros ejecutivos de inmediato. Sama finalizó de inmediato el programa piloto de clasificación de imágenes y notificó que cancelaríamos todos los [proyectos] restantes con OpenAI", dijo un portavoz de Sama a Time. "Las personas que trabajan con el cliente no examinó la solicitud a través de los canales adecuados. Después de una revisión de la situación, se despidió a las personas y se establecieron nuevas políticas de investigación de ventas y medidas de seguridad".

Por su parte, OpenAI le dijo a Time que nunca le pidió explícitamente a Sama que recopilara contenido C4.

"Este contenido no es necesario como entrada para nuestros filtros de preentrenamiento e instruimos a nuestros empleados para que lo eviten activamente. Tan pronto como Sama nos dijo que habían intentado recopilar contenido en esta categoría, aclaramos que había habido una falta de comunicación y que no quería ese contenido”, dijo el fabricante de IA a Time. “Y después de darnos cuenta de que había habido una falta de comunicación, no abrimos ni vimos el contenido en cuestión, por lo que no podemos confirmar si contenía imágenes en la categoría C4. "

Y en cuanto al resto de las acusaciones de Time, OpenAI sostiene además que solo está tratando de hacer del mundo un lugar mejor con su producto. La moderación del contenido es solo una parte esencial, aunque desafortunada, de esa misión.

"Nuestra misión es garantizar que la inteligencia artificial general beneficie a toda la humanidad, y trabajamos arduamente para construir sistemas de IA seguros y útiles que limiten el sesgo y el contenido dañino", dijo un portavoz de OpenAI a la revista. "Clasificar y filtrar [texto e imágenes] dañinos es un paso necesario para minimizar la cantidad de contenido violento y sexual incluido en los datos de entrenamiento y crear herramientas que puedan detectar contenido dañino".

Me parece bien. Aún así, la necesidad de moderación no es una excusa para contratar a contratistas que, una y otra vez, han demostrado tratar atrozmente a sus trabajadores; en todo caso, es una razón para cuidar mucho más a los empleados que asumen uno de los problemas del mundo moderno. peores deberes. Y pagar salarios tan miserables cuando sus propias arcas son tan profundas parece de muy mal gusto.

OpenAI ya tiene bolsillos lo suficientemente profundos, y están a punto de volverse [mucho más profundos] (https://futurism.com/the-byte/microsoft-10000-layoffs-openai). Tiene que haber una mejor manera.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd