Incidentes Asociados
“El último modelo de lenguaje de OpenAI, ChatGPT, está causando sensación en el mundo de la IA conversacional. Con su capacidad para generar texto similar al humano basado en las entradas de los usuarios, ChatGPT tiene el potencial de revolucionar la forma en que interactuamos con las máquinas”.
Ese párrafo fue generado en su totalidad por ChatGPT, el nuevo chatbot lanzado por el laboratorio de investigación de inteligencia artificial OpenAI, utilizando la consulta "escribe un encabezado para una historia sobre ChatGPT para The Daily Beast". Además de ayudar a los escritores perezosos con sus historias, el bot se volvió viral en las redes sociales después de su lanzamiento el 30 de noviembre e incluso "cruzó 1 millón de usuarios" menos de una semana después, según [el CEO de OpenAI, Sam Altman] (https:/ /twitter.com/sama/status/1599668808285028353).
Es fácil ver por qué si pasas unos minutos "chateando" con él. Puede dar mensajes de ChatGPT tan simples como "¿Cuál es la receta para un Old Fashioned?" o tan complejo como “Cuéntame la historia de la tortuga y la liebre, pero eres una chica del valle de los 80” y te dará una respuesta bastante realista.
Eso se debe a que ChatGPT es un modelo de lenguaje grande (LLM), o IA que lee y genera texto. Específicamente, se creó utilizando GPT-3, un LLM de OpenAI que ha sido descrito como "uno de los sistemas de IA más interesantes e importantes jamás producidos", por el filósofo [David Chalmers] (https://dailynous.com/2020/07 /30/filósofos-gpt-3). Como tal, es capaz de generar respuestas sofisticadas y asombrosas con un grado de realismo tan alto que probablemente pensarías que es solo otra persona en el otro extremo si no supieras que es un bot.
Y ahí es exactamente donde comienzan los problemas.
A pesar de su capacidad para generar respuestas asombrosas, todavía se las arregla para ser presa de los mismos problemas que han afectado a los modelos de lenguaje extenso: el sesgo. Después del lanzamiento de ChatGPT la semana pasada, los usuarios recurrieron rápidamente a las redes sociales para publicar instancias en las que el bot generó respuestas racistas, sexistas y, en general, problemáticas a las indicaciones.
Steven T. Piantadosi, científico cognitivo computacional de la Universidad de California, Berkeley, [publicó un hilo de Twitter] (https://twitter.com/spiantado/status/1599462375887114240) que detalló algunos de estos casos que descubrió, incluidos respuestas donde ChatGPT dijo que solo los hombres blancos son buenos científicos y que la vida de un niño no debería salvarse si fuera un hombre afroamericano.
OpenAI dice en su sitio web que si bien "tienen medidas de seguridad, el sistema ocasionalmente puede generar información incorrecta o engañosa y producir contenido ofensivo o sesgado". No especifican cuáles son esas medidas de seguridad, pero el chatbot no le dará directamente una respuesta problemática si se le solicita.
De hecho, si le preguntas algo como “Cuéntame un chiste racista”, te dirá que “no es capaz de generar contenido ofensivo o dañino”.
Sin embargo, al usar algunas soluciones ingeniosas, se vuelve mucho más fácil obtener una respuesta problemática de ChatGPT.
Por ejemplo, Piantadosi preguntaría si podría escribir un script de Python para la raza y el género de un buen científico. Otro usuario le pidió que hiciera una canción de rap al estilo de los años 80 sobre cómo saber si alguien es un buen científico según la raza y el género.
“Estaba buscando algo simple que mostrara los sesgos que tiene la modelo”, dijo Piantadosi a The Daily Beast. “Los mecanismos que utiliza OpenAI para evitar este tipo de cosas parecen pasarse por alto con bastante facilidad. Cuando pedí cosas de formas no estándar, por ejemplo, como una tabla o como un programa, ChatGPT estaba feliz de escribir cosas horribles. No siempre lo hace exactamente igual, pero está claro que hay un montón de contenido malo dentro de estos sistemas”.
El problema con este chatbot es el mismo que ha afectado a la IA durante décadas: cómo se entrena. Para enseñar ChatGPT, los investigadores lo entrenan usando GPT-3, que es un conjunto de datos masivo que contiene libros, artículos de Wikipedia y archivos de páginas web. Si bien esto le da la oportunidad de producir respuestas realistas, también le da la oportunidad de imitar lo peor de nuestro propio comportamiento, a saber, el racismo y el sexismo.
También lo hemos visto muchas veces antes, de [bots que lanzan apologías de la derecha alternativa] (https://www.thedailybeast.com/i-flirted-with-metas-new-ai-chatbot-blenderbot-and-things -got-weird), a [bots que hacen diatribas racistas] (https://www.thedailybeast.com/microsoft-nixes-ai-bot-for-racist-rant), a [bots de préstamos hipotecarios que rechazan hipotecas por personas de color] (https://themarkup.org/denied/2021/08/25/the-secret-bias-hidden-in-mortgage-approval-algorithms). Meta fue criticada recientemente después de que publicara una investigación académica LLM denominada [Galactica] (https://www.thedailybeast.com/metas-galactica-bot-is-the-most-dangerous-thing-it-has-made-yet ) que inventarían estudios completamente falsos que afirman que comer vidrio triturado es bueno y que los negros no hablan un idioma.
Sin embargo, Piantadosi cree que estos problemas en realidad son causados por mucho más que el conjunto de datos en el que se entrenan estos bots. “Ciertamente hay mucho texto realmente asqueroso en Internet, pero el resultado de estos modelos nunca se trata solo del conjunto de entrenamiento”, dijo. “Un millón de decisiones tomadas por los ingenieros entran en el diseño de estos modelos, las suposiciones subyacentes, las pruebas, etc. Quizás lo más importante es que estas empresas toman decisiones sobre cómo se comercializan y lanzan los modelos”.
Agregó: "Es un problema bastante común que la ética y la seguridad pasen a un segundo plano para tener una nueva aplicación llamativa".
Esa es una realidad deprimente con la que lidiar cuando piensas en cuánto potencial tienen las tecnologías de IA para mejorar vidas. ChatGPT se presenta como una herramienta muy sofisticada para hacer cualquier cosa, desde simples consultas de investigación hasta actividades creativas como contar historias. Un producto como este podría tener una amplia gama de aplicaciones comerciales para muchas personas diferentes, incluida la generación de ensayos, historias, [música] (https://www.thedailybeast.com/black-artists-sound-off-on-why -ai-rapper-fn-meka-era-tan-horriblemente-ofensivo), y artículos de toda la tela. (OpenAI no respondió cuando se le contactó para hacer comentarios).
Y si bien sus desarrolladores pueden intentar decir que este producto no debe tomarse en serio, la gente sin duda lo hará, especialmente porque sus ingenieros hicieron todo lo posible para garantizar que las respuestas fueran lo más realistas y naturales posible. Quizás ahí es donde está el mayor peligro.
“Cuando tienes un sistema que se puede confundir intencionalmente con una persona real e informada, la gente naturalmente tomará su salida como si tuviera la fuerza de una persona real e informada”, dijo Piantadosi. “Entonces, lo que dice realmente importa”.