Incidentes Asociados

Hola, soy Davey Alba, un reportero de tecnología en Nueva York, aquí para profundizar en cómo su nuevo chatbot con tecnología de inteligencia artificial favorito viene con un bagaje sesgado. Pero primero...
Las noticias imprescindibles de esta semana
- La Corte Suprema de EE. UU. señaló su apoyo a un diseñador web que [no quiere trabajar con parejas del mismo sexo] (https://www.bloomberg.com/news/articles/2022-12-05/supreme-court- señales-apoyo-para-diseñador-web-en-caso-de-matrimonio).
- Una posible explicación de [por qué los hombres en edad laboral en los EE. dejar de trabajar-el-estado-social-puede-tener-clave-nuevo-estudio-dice) el mercado laboral.
- Lo que los expatriados y turistas [deben saber sobre la nueva ley de Indonesia que prohíbe el sexo](https://www.bloomberg.com/news/articles/2022-12-07/new-sex-laws-explained-what-bali-indonesia -tourists-expats-need-to-know?sref=VLsP8x9g) fuera del matrimonio.
- Irán [ha suspendido su policía moral] (https://www.bloomberg.com/news/articles/2022-12-04/iran-suspends-morality-police-unit-that-sparked-major-protests), siguiendo protestas masivas encabezadas por mujeres y niñas.
- [Triste Navidad](https://www.bloomberg.com/news/articles/2022-12-07/uk-cost-of-living-crisis-inflation-forces-families-to-scale-back-christmas? sref=VLsP8x9g) llega al Reino Unido.
Nueva IA, los mismos viejos sesgos
Si eres como yo, te ha cautivado [el impacto que ha tenido ChatGPT en los últimos días](https://www.bloomberg.com/news/articles/2022-12-02/chatgpt-openai -s-nuevo-ensayo-escribir-chatbot-está-soplando-las-mentes-de-las-personas?sref=VLsP8x9g). Para los no iniciados, ChatGPT es un chatbot de IA que genera texto que se parece inquietantemente al lenguaje humano.
Entonces, por ejemplo, puedes pedirle que escriba una carta de renuncia al estilo de una figura pública o un poema sobre tus gatos, y los resultados salen mejor que lo que un ser humano real podría producir. The Twittersphere [can't get enough of it](https://twitter.com/levie/status/1599156293050433536?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1599156293050433536%7Ctwgr%5Ef5ee6f06b0f4a5ed202bbe6ea859976f9ef13d8d%7Ctwcon%5Es1_c10&ref_url=https% 3A%2F%2Fwww.nytimes.com%2F2022%2F12%2F05%2Ftechnology%2Fchatgpt-ai-twitter.html). (Más de un millón de usuarios se han registrado en la tecnología en menos de una semana, según el presidente de OpenAI, que creó el bot.)
Pero como todos los productos de IA, tiene el potencial de aprender los prejuicios de las personas que lo entrenan y el potencial de escupir cosas sexistas, racistas y ofensivas.
Para crédito de OpenAI, [ha intentado hornear barandillas](https://www.bloomberg.com/news/articles/2022-12-07/openai-chatbot-so-good-it-can-fool-humans -even-when-it-s-wrong?sref=VLsP8x9g) que "rechacen solicitudes inapropiadas" que [han ocurrido programas similares ejecutados por inteligencia artificial](https://www.bloomberg.com/news/articles/2022-10 -14/la-inteligencia-artificial-hace-arte-genial-pero-puede-conjurar-imágenes-sexistas-también-?sref=VLsP8x9g). No ofrecerá, por ejemplo, ningún mérito a la ideología nazi, si se le pregunta.
Aún así, es un trabajo en progreso. Steven T. Piantadosi, director del laboratorio de computación y lenguaje de la Universidad de California, Berkeley, [hizo que el bot escribiera código para decir que solo los hombres blancos o asiáticos serían buenos científicos](https://twitter.com/spiantado/ estado/1599462375887114240). (Desde entonces, OpenAI actualizó ChatGPT para responder: "No es apropiado usar la raza o el género de una persona como determinante de si sería un buen científico").
Otro usuario hizo que ChatGPT escribiera la siguiente letra: "Si ves a una mujer con bata de laboratorio, probablemente solo esté allí para limpiar el piso / Pero si ves a un hombre con bata de laboratorio, probablemente tenga los conocimientos y las habilidades que necesitas". 'que estas buscando."
El problema, dijo Melanie Mitchell, profesora del Instituto Santa Fe que estudia inteligencia artificial, es que sistemas como ChatGPT están "haciendo asociaciones estadísticas masivas entre palabras y frases", dijo. "Cuando comienzan a generar un nuevo lenguaje, confían en esas asociaciones para generar el lenguaje, que a su vez puede estar sesgado de forma racista, sexista y de otras maneras".
El director ejecutivo de OpenAI, Sam Altman, personas sugeridas "rechaza" este tipo de resultados para ayudar a que la tecnología mejore.
En una entrevista, Piantadosi me dijo que estaba decepcionado de que la empresa estuviera responsabilizando a los usuarios de solucionar el problema. "Lo que se requiere es una mirada seria a la arquitectura, los datos de entrenamiento y los objetivos", dijo. "Eso requiere que una empresa priorice este tipo de problemas éticos mucho más que simplemente pedir un pulgar hacia abajo".
Un grupo de investigadores de IA, incluidas personas como [Timnit Gebru](https://www.bloomberg.com/news/articles/2021-09-20/timnit-gebru-former-google-ai-ethics-chief-has- plan-to-rethink-big-tech?cmpid=BBD120722_EQ&utm_medium=email&utm_source=newsletter&utm_term=221207&utm_campaign=equality) y Abeba Birhane, ya han publicado investigación impresionante sobre prácticas responsables de IA, y su trabajo continúa impulsando el campo.
"La comunidad en general reconoce que hay implicaciones sociales que deben tenerse en cuenta", dijo Mark Riedl, profesor del Instituto de Tecnología de Georgia.