Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3195

Incidentes Asociados

Incidente 4508 Reportes
Kenyan Data Annotators Allegedly Exposed to Graphic Content for OpenAI's AI

Loading...
La fuerza laboral oculta que ayudó a filtrar la violencia y el abuso fuera de ChatGPT
wsj.com · 2023

Esta transcripción fue preparada por un servicio de transcripción. Esta versión puede no estar en su forma final y puede ser actualizada. Kate: Hola, soy Kate. Hoy nuestra productora Annie Minoff les va a traer una historia. Se trata de una parte poco conocida de la fuerza laboral de IA, las personas cuyo trabajo era ayudar a filtrar las referencias a la violencia y el abuso sexual en lo que se convertiría en ChatGPT. Aquí está Annie. Annie Minoff: Mi colega Karen Hao cubre la inteligencia artificial. Y a principios de este año se encontró haciendo una entrevista en una especie de lugar inusual. Karen Hao: Actualmente estamos caminando, ¿qué es esto? ¿Un campo? ¿Son estos vegetales los que la gente está cultivando? Annie Minoff: Karen estaba en un huerto en las afueras de Nairobi, Kenia. Karen Hao: Así que estaba allí para conocer a este trabajador llamado Alex, y originalmente habíamos planeado encontrarnos en uno de los apartamentos de su amigo, pero había obras de construcción, así que buscábamos otro lugar para grabar. Annie Minoff: Es por eso que terminaron en el huerto. Karen Hao: ¿Quieres describir más lo que estás viendo? Alex Cairo: Sí, veo muchas casas, algunos pastos, algunas personas a nuestro lado derecho, observándonos. Entonces, sí, es un escenario perfecto para poner en marcha este podcast. Annie Minoff: Karen quería hablar con Alex Cairo porque Alex ayudó a hacer posible uno de los productos tecnológicos más virales de todos los tiempos, ChatGPT, el chatbot de IA creado por la empresa OpenAI. Cuando usa ChatGPT y no escupe discursos de odio o contenido extremadamente violento o pornográfico, es en parte gracias a Alex y sus colegas en Kenia. Karen Hao: Su contribución fue básicamente hacer que ChatGPT fuera seguro para decenas de millones de usuarios. Revisaron y revisaron contenido grotesco realmente tóxico día tras día para asegurarse de que nadie más tuviera que verlo. Annie Minoff: Ahora, Alex y sus compañeros de trabajo están listos para hablar sobre lo que dicen que les ha costado ese trabajo. Bill Mullina: Fue muy gráfico. No puedes empezar a leer el texto e ignorar pensar en lo que está pasando. Alex Cairo: Tuve pesadillas. Temía a la gente. Temía trabajar en la oscuridad. Mofat Okini: Estoy muy orgulloso de haber participado en ese proyecto ahora para ayudar a mantener ChatGPT seguro. Pero ahora la pregunta que siempre me hago es: "¿Valió mi aporte lo que recibí a cambio?" Annie Minoff: Bienvenidos a The Journal, nuestro programa sobre dinero, negocios y poder. Soy Annie Minoff. Es martes, 11 de julio. Próximamente en el programa, los trabajadores de datos de Kenia hablarán sobre el precio que pagaron por una IA segura. OpenAI no es la primera empresa en lanzar un chatbot de IA. Pero para muchos de los bots anteriores a ChatGPT, había un problema bastante constante. Los chatbots no siempre se comportaron. Karen Hao: Ha habido una larga historia de chatbots que se descarrilaron muy rápido después del lanzamiento. Es más o menos el comportamiento esperado en este punto. En 2016, estaba Tay de Microsoft, que comenzó a lanzar comentarios tóxicos días después del lanzamiento. Orador 9: En menos de 24 horas, Tay pasó de decir cosas como "¿Puedo decir que estoy feliz de conocerte?" A decir cosas como: "Odio (censurado) a las feministas y todas deberían morir y arder en el infierno". Karen Hao: Hubo un chatbot de Corea del Sur, Lee Luda, en 2021. Nuevamente, discurso de odio hacia la comunidad LGBTQ. Y luego, más recientemente, en 2022, estaba el BlenderBot 3 de Meta, que lo mismo, solo unos días después del lanzamiento, comenzó a decir estas cosas realmente racistas. Annie Minoff: BlenderBot también tuvo algunas palabras selectas sobre el jefe de Meta, Mark Zuckerberg. Orador 10: BlenderBot llamó a Zuckerberg, "Demasiado espeluznante y manipulador". Y en otro decía: "No me gusta mucho. Es una mala persona". Annie Minoff: Para las empresas de tecnología, un lanzamiento fallido como este puede ser un desastre. Microsoft, por ejemplo, anunció que desconectaría su chatbot Tay solo unos días después de su debut. OpenAI era consciente del riesgo. De hecho, la empresa había estado pensando en ello antes de ChatGPT, cuando estaba desarrollando iteraciones anteriores de su tecnología. Y la solución que se le ocurrió a OpenAI requirió un poco más de ingeniería. Requería construir un filtro. Karen Hao: Si imaginas tu propio cerebro, siempre usamos, metafóricamente, un filtro para asegurarnos de que eres socialmente aceptable. Es básicamente lo mismo, pero la versión AI. Tiene que haber una verificación final de la salida antes de que el modelo de IA genere lo que va a generar. Annie Minoff: Bien, entonces OpenAI necesitaba ese filtro. Necesitaban ese filtro construido. Karen Hao: Sí, OpenAI necesitaba construir el filtro de moderación de contenido. Y no puedes hacer eso sin humanos. Annie Minoff: Entre los humanos que ayudarían a construir el filtro de OpenAI, había unos 50 trabajadores de datos en Kenia. ¿Y por qué Kenia? Karen Hao: En primer lugar, Kenia es un país de bajos ingresos y tiene una tasa de desempleo muy alta. Los salarios son realmente bajos, lo que resulta muy atractivo para las empresas tecnológicas que intentan aumentar sus márgenes de beneficio. Y también es una fuerza laboral altamente educada que habla inglés debido a la colonización y hay una buena infraestructura wifi. Annie Minoff: Uno de esos trabajadores kenianos era Alex Cairo, a quien Karen conoció en ese huerto. Karen Hao: ¿Puedes presentarte? Alex Cairo: Sí, sí, seguro. Me llamo Alex. Nací en Nairobi en Kilimani Estate. Annie Minoff: Alex tiene 28 años. Vive con su esposa y su hermano en las afueras de Nairobi. Y cuando comenzó a trabajar en el filtro de seguridad de OpenAI, no estaba trabajando directamente para OpenAI. Estaba trabajando para otra empresa estadounidense llamada Sama. Sama es una empresa de outsourcing. Sus trabajadores en Kenia han realizado proyectos para un grupo de grandes empresas tecnológicas estadounidenses, incluida la eliminación de publicaciones ofensivas de las redes sociales. Alex dice que estaba emocionado de unirse. Alex Cairo: Acabo de postularme para el trabajo, como lo hace la gente, así que me contrataron como analista cultural en mayo de 2021. Cuando llegué a Sama, me prometieron que esta era la empresa del futuro para mí. Me prometieron habilidades, algo de capacitación, crecimiento profesional, educación. Sabía que crecería con esta empresa. Annie Minoff: También en Sama estuvo Bill Mullina. Bill Mullina: Vi un anuncio en LinkedIn. Estaban buscando un líder de equipo. Annie Minoff: Bill estaba un nivel por encima de Alex. Dirigió un equipo de unas pocas docenas de personas en Sama. Y al principio dice que no estaban trabajando en el filtro de OpenAI. Le dijo a Karen que estaban haciendo otro tipo de trabajo de inteligencia artificial. Bill Mullina: Primero comenzaron con la anotación de datos y el etiquetado de imágenes. Karen Hao: ¿En qué tipo de anotación de datos estabas trabajando? Bill Mullina: Estábamos etiquetando imágenes. Por ejemplo, te dan una imagen, tiene señales de tráfico, coches, carreteras, árboles, cielos. Así que nuestro trabajo fue asegurarnos de etiquetar todo en la imagen. Annie Minoff: La anotación de datos básicamente significa etiquetar imágenes o pasajes de texto para que los sistemas de IA puedan aprender de ellos. Por ejemplo, etiquetar miles de imágenes de escenas callejeras para que un sistema de inteligencia artificial pueda aprender cómo se ve una señal de alto o un árbol. Pero el equipo de Bill no etiquetaría imágenes por mucho tiempo, porque en noviembre de 2021 el trabajo cambió. Sama tenía un nuevo cliente, OpenAI. Karen Hao: OpenAI tenía básicamente decenas de miles de pasajes de texto que necesitaban etiquetados. Entonces, los entregaban regularmente a Sama y los trabajadores leían cada pasaje de texto uno por uno y luego le asignaban una etiqueta. Annie Minoff: OpenAI quería un sistema en el que si le pedías a la IA que escribiera algo horrible, como una descripción de un niño que está siendo abusado o un método para terminar con tu propia vida, el sistema se negaría a escribir eso. Filtraría esas malas respuestas antes de que llegaran a ti. Pero para hacer eso, la IA tiene que saber qué son el abuso infantil y el suicidio. Los humanos tenemos que enseñarlo. Y ese era el trabajo del trabajador de Sama, leer descripciones de violencia extrema, violación, suicidio y categorizar esos textos para la IA. Aquí está Bill, el líder del equipo. Bill Mullina: Su trabajo principal era leer el texto y luego etiquetar los datos en consecuencia. Por ejemplo, si lees un texto que tiene contenido sexual, hay una subcategoría para determinar si es incesto y ese tipo de categorías. Annie Minoff: Bill y Alex no recibieron mucha información sobre el proyecto. Al principio, ni siquiera sabían que estaban trabajando para OpenAI. Tampoco sabían de dónde venían estos textos. Pero según un trabajo de investigación de OpenAI, provienen de algunas fuentes. Algunos fueron escritos por humanos provenientes de los rincones más oscuros de Internet. Otros fueron generados por los propios sistemas de IA. Los investigadores de OpenAI revisarían los textos y los enviarían a Sama para su etiquetado. Aquí está Álex. Alex Cairo: Mi experiencia en esos cuatro meses fue la peor experiencia que he tenido trabajando en una empresa porque el contenido que hice fue el peor contenido que puedas leer. Digamos que alguien se está apuñalando, alguien se está suicidando, estás leyendo algo así. Entonces, cada situación era muy perturbadora en el contenido que estábamos leyendo. Annie Minoff: Alex formó parte del equipo de Sama que etiquetó el contenido violento de OpenAI. Otro trabajador con el que habló Karen, Mofat Okini, estaba en el equipo de contenido sexual. Mofat Okini: Leeremos sobre el texto de tal vez un niño que tiene relaciones sexuales con su padre o tal vez una madre o tal vez con todos ellos. Un niño que tiene una relación sexual con un animal. También tuvimos niños que intentaron insinuaciones sexuales entre ellos, así que también tuvimos violaciones. Sí, cosas así, pero eran muy gráficas, aunque tenían forma de texto. Pero si estás leyendo el texto, se vuelve muy gráfico en tu mente. Annie Minoff: Al principio, los pasajes que llegaban de OpenAI eran cortos, no más de dos oraciones. Pero con el tiempo se hicieron más largos, hasta cinco o seis párrafos. Los trabajadores pueden leer cientos de estos pasajes al día. A las personas del equipo se les pagaba entre $ 1,50 y $ 3,75 por hora. OpenAI pagó a Sama una tarifa de servicio por hora de $12,50 por el trabajo de moderación. Un portavoz de OpenAI dijo que la empresa no sabía que los trabajadores que revisaban los textos solo obtenían una pequeña fracción de eso. Una portavoz de Sama dijo que esa tarifa de $12.50 también cubría otras cosas, como gastos de infraestructura, y que a los moderadores de contenido se les pagaba de acuerdo con una fórmula reconocida para determinar un salario digno. Alex le dijo a Karen que el dinero no era suficiente para compensar el costo psicológico que el trabajo comenzó a tener. Karen Hao: Entonces, cuando te ibas a casa por la noche, ¿en qué pensarías después de ocho horas de leer todo eso? Alex Cairo: Oh, mi estado mental era muy malo. Tuve pesadillas. Temía a la gente. Tal vez veo que viene demasiada gente. Veo violencia. Si veo a alguien sosteniendo un tenedor o una hoja de afeitar, veo gente cortándose o algo así por la noche. Voy a soñar. tendré pesadillas. Incluso le diré a mi hermano: "Está bien, solo ven aquí, duerme conmigo durante cinco horas antes de irme a dormir porque necesito hablar con alguien antes de irme a dormir. Porque si me voy a dormir, voy a empezar a gritar". o algo así. Tantas cosas están pasando mucho en mi mente". Sí, sí. Annie Minoff: Alex dice que siempre había sido extrovertido y sociable, pero a medida que avanzaba el proyecto, se encerró en sí mismo. No quería estar rodeado de gente. Para Mofat, el trabajador que estaba en el equipo de contenido sexual. El impacto de hacer este trabajo fue aún mayor. Mofat es un joven de 28 años de voz suave, y Karen dice que cuando comenzó a trabajar en el proyecto de inteligencia artificial abierta, las cosas le iban bastante bien. Karen Hao: En realidad acababa de conocer a una mujer que en realidad vivía al lado de él y vivía en este vecindario llamado Pipeline, e inmediatamente se enamoró de ella. Tuvieron un romance vertiginoso y se casaron en unos meses. Ella ya tenía una hija y él adoraba mucho a esta niña y la llamaba su niña. Y hasta el día de hoy todavía dice hija en lugar de hijastra, al describirla. Annie Minoff: Cuando Mofat comenzó a trabajar en el filtro de seguridad de IA abierto, no se lo contó a su esposa. Los textos que estaba leyendo eran tan grotescos. Él dice que no quería asustarla, pero que no podía ocultar el efecto que el trabajo estaba teniendo en él. Mofat Okini: Tuve una niña. Llegó al punto de que no quería acercarme tanto a mi niña por el texto que solía leer. Ahora si ves a ese niño, reflejas lo que lees en el texto. Sí, el buen momento que pasaste con tu esposa, te lo quitaron. Entonces te quedas como alguien que ya no siente nada por su pareja. Annie Minoff: Moat se distanció cada vez más de su esposa, quien se sintió cada vez más frustrada. Sabía que estaba luchando y quería ayuda. En concreto, quería asesoramiento psicológico. Sama proporcionó sesiones de bienestar con consejeros, pero Mofat le dijo a Karen que las sesiones eran inadecuadas. Mofat Okini: Incluso si vas a una sesión, ¿qué te hacen preguntas básicas como "¿Cómo estuvo tu día?" Pasaste las ocho horas completas trabajando en este texto todo el día. Y cuando vas por 30 minutos o una hora cancelando sesión, alguien te pregunta cómo estuvo tu día o quizás cuáles son tus planes para el futuro. Esas son preguntas básicas que no ayudan. Así que también necesitas profesionales. Annie Minoff: Una portavoz de Sama dijo que la dirección de la empresa desconocía el impacto psicológico que el proyecto estaba teniendo en los trabajadores y que, además de asesoramiento, la empresa también ofrecía a los trabajadores acceso a salas de oración y meditación. En el caso de Mofat, el asesoramiento no funcionó. Su aislamiento solo empeoró hasta que la relación con su esposa llegó a un punto de ruptura. Karen Hao: Su esposa le envía un mensaje de texto y le dice: "¿Puedes traer algo de pescado a casa para la cena?". Y compró tres pescados para él, su mujer y su hija. Y cuando llegó a casa, se habían ido y todas sus cosas se habían ido. Annie Minoff: Guau. Karen Hao: Y él preguntó: "¿Qué está pasando?" Mofat Okini: Y luego le pregunté: "¿Por qué no regresas y por qué te has ido?" Y luego ella dijo: "Has cambiado. Has cambiado. No te veo. No eres el hombre con el que me casé, las cosas han cambiado. Ya no te entiendo. No amas a mi hijo". (inaudible)" Annie Minoff: Mofat le dijo a Karen que no esperaba que ella regresara y ella rechazó nuestra solicitud de comentarios. Mofat, Alex y Bill trabajaron en el proyecto de filtro de Open AI durante cinco meses. Mientras tanto, ni siquiera estaban seguros de lo que estaban ayudando a construir o cuál sería su significado, pero ellos y el mundo estaban a punto de descubrirlo porque ChatGPT estaba por llegar. Eso es después del descanso. ChatGPT se puso en marcha en noviembre del año pasado. Karen Hao: ChatGPT se apoderó del mundo. Estabas viendo a la gente probarlo y probarlo para todo tipo de cosas. Y a medida que pasaban los días, las cosas que intentaban se volvían más y más sofisticadas. Annie Minoff: La gente le pidió a ChatGPT que proponga recetas basadas en lo que sea que tengan en el refrigerador. Altavoz 11: Jesús, eso es realmente bueno. Annie Minoff: Le pidieron que los ayudara a elegir su próximo destino de vacaciones. Orador 12: ChatGPT me dio cinco ideas geniales y opté por Palm Springs, California. Annie Minoff: Le preguntaron todo tipo de cosas. Orador 13: Le pedí a Chad GT que me escribiera una canción llamada Sexy Bus solo para ver cómo resultaría. Altavoz 14: Entonces lo vi brillando (inaudible) Un autobús plateado brillante, lo construí tan malditamente frío. es sexy Karen Hao: Pasó de "Oh, déjame escribir un poema". Y, "Mierda. Es tan bueno escribiendo ese poema" a, "Oh, déjame intentar codificar un sitio web completo con esta cosa. Mierda. También puede hacer eso". Y hubo un cambio tan profundo de la tierra debajo de nosotros de una manera que nunca antes había sido posible, y de repente tenemos esta tecnología que está desbloqueando un universo de potencial completamente diferente. Annie Minoff: Otra forma en la que ChatGPT fue un gran paso adelante. En general, era bastante seguro. Karen Hao: Una de las razones por las que ChatGPT pudo volverse tan viralmente popular y continuó manteniendo su popularidad es porque en gran medida no arroja cosas realmente horribles. La gente se siente cómoda usando el producto sabiendo que no va a hacer eso. Annie Minoff: Al menos no lo hará en inglés. Si Alex quisiera usar ChatGPT en su idioma nativo, el swahili, ¿sería capaz de hacerlo? Karen Hao: Puedes interactuar con ChatGPT en swahili, pero ChatGPT se desarrolló principalmente para funcionar en inglés. Así que gran parte de la limpieza, la moderación del contenido y las importantes medidas de seguridad dentro del chatbot se realizaron en inglés. Entonces, cuando lo solicite en swahili, obtendrá más información errónea. Obtendrá más oraciones confusas que no tienen sentido, y potencialmente obtendrá más de este contenido que trabajaron tan duro para filtrar porque solo lo estaban filtrando en inglés. Annie Minoff: Guau. Ni siquiera había pensado en eso. Que el tipo de filtro que construirías para detectar el discurso de odio, la violencia y la agresión sexual en inglés, no funcionaría necesariamente tan bien en swahili. Karen Hao: Exactamente. Annie Minoff: Para cuando ChatGPT se hizo cargo del mundo, los moderadores de Sama en Kenia ya habían estado fuera del proyecto de filtro durante ocho meses. De hecho, su trabajo había terminado temprano y abruptamente. Se suponía que el contrato de Sama con OpenAI duraría un año, pero una portavoz de Sama dijo que Sama lo canceló después de solo cinco meses debido a una disputa con OpenAI sobre un proyecto relacionado. Después de que terminó el proyecto del filtro, Alex Bill y Mofat continuaron con otro trabajo en Sama antes de dejar la compañía por completo a fines del año pasado. Bill y Mofat todavía trabajan con datos en otras empresas. Dicen que sus nuevos trabajos no implican revisar contenido tóxico. Alex actualmente está desempleado, pero si bien ya no trabajan en Sama, dicen que continúan luchando con lo que pasó durante esos meses en el proyecto del filtro, y ahora están tratando de cambiar las cosas para todas las personas que continúan haciendo este trabajo. . Bill y Mofat dicen que han comenzado a organizarse. Karen Hao: ¿Cómo se te ocurrió la idea de un sindicato? Bill Mullina: Se nos ocurrió la idea porque notamos que no solo Sama (inaudible), era todo el país pasando por el mismo tipo de experiencias. Conocimos a personas en otras empresas que están haciendo trabajo de moderación de contenido y nos dimos cuenta de que las experiencias son muy parecidas. Así que decidimos que en lugar de que una persona luche sus batallas sola, nos unimos como equipo y luego formamos un sindicato. Mofat Okini: Solo queremos asegurarnos de que todos los que estén moderando contenido en este momento o en el futuro, tengan mejores condiciones de trabajo. Tienen mejor paga, se respetan sus derechos. Así que estamos luchando por toda la generación que viene y nosotros también. Annie Minoff: Hasta ahora, su sindicato incluye a más de 150 trabajadores de datos en varias empresas en Kenia. Bill, Mofat y Alex también están impulsando hoy un cambio legislativo con su abogado de Kenia y el respaldo de una organización sin fines de lucro del Reino Unido llamada Foxglove. Presentaron una petición ante el parlamento de Kenia. En la petición, instaron al gobierno a regular la industria de la IA y aumentar la protección de los trabajadores. Ahora le toca al parlamento decidir si acepta esas sugerencias. En cuanto a OpenAI, la compañía dijo en el comunicado que la anotación de datos es un trabajo desafiante que debe realizarse con humanidad y voluntad. Dijo que los esfuerzos de los trabajadores para garantizar la seguridad de los sistemas de inteligencia artificial han sido, entre comillas, "inmensamente valiosos". Una vocera de Sama dijo que la empresa apoya a sus trabajadores de todas las formas posibles y que ya no toma proyectos de moderación de contenido. Ella dijo que el trabajo nunca había sido una parte central del negocio de la compañía y que había tomado una decisión estratégica para abandonarlo por completo. Cuando se lanzó ChatGPT, había mucho entusiasmo sobre lo que la IA podría lograr. También hubo mucha conversación sobre los trabajos que podría reemplazar. Pero lo que pasó desapercibido es el trabajo que la IA ya está creando en todo el mundo. Los trabajadores de IA están revisando todo tipo de contenido. Están ayudando a que la IA sea más precisa, más útil y más segura. Las cosas que están revisando a menudo son benignas. Están etiquetando imágenes de señales de tráfico o árboles, pero a veces no es así. Están etiquetando el discurso de odio, la violencia y el abuso sexual extremo. Y Karen dice que esa parte del trabajo no desaparecerá pronto. Karen Hao: Este es un trabajo que seguirá creciendo en términos de demanda. Esto es algo que los investigadores que construyen estos sistemas de chatbot me describieron como un trabajo persistente necesario porque cuanto más se ponen estos sistemas en manos de más usuarios, más creativos se vuelven y más abusos, básicamente, que estas empresas tienen que dar cuenta. para. Así que esto es como un proceso iterativo en el que el filtro de seguridad tiene que actualizarse continuamente con el tiempo y cada vez que se actualiza eso significa más trabajo por hacer en la línea de lo que hicieron Alex, Mofat y Bill. Annie Minoff: Eso es todo por hoy, martes 11 de julio. The Journal es una coproducción de Gimlet y el Wall Street Journal. Información adicional en este episodio por (inaudible) Ramen. Gracias por escuchar. Nos vemos mañana.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • b9764d4