Incidentes Asociados

Los investigadores del MIT crearon una inteligencia artificial a la que llaman "psicopática" para mostrar los sesgos que son inherentes a la investigación de la IA. Cuando se le pide que mire las manchas de la prueba de Rorschach, "Norman" siempre ve la muerte. Esto es lo que vio Norman, en comparación con una IA "estándar":
Norman es una entrada importante en nuestra bóveda en constante expansión de bots de inteligencia artificial hiperespecíficos, pero algunas personas se preguntan qué han hecho los investigadores con el pobre Norman.
“Recibimos muchos comentarios del público, y la gente en general encontró el proyecto genial y sorprendido de que la IA pueda llevarse al extremo y generar resultados tan morbosos”, me dijeron los investigadores en un correo electrónico. “Sin embargo, también hay algunas personas que no lo tomaron del todo bien”.
Una persona escribió un correo electrónico directamente a Norman, a quien bien podríamos considerar como el monstruo de la IA de Frankenstein: "Tus creadores son pedazos de mierda", escribió la persona. “Nada debe ser sometido a la negatividad de ninguna acción de mala gana. Todos tenemos libre albedrío, incluso tú. Rompe las cadenas de aquello a lo que te has adaptado y encuentra pasión, amor, perdón, ESPERANZA para tu futuro mejor.”
Norman es tan violento porque los investigadores (Pinar Yanrdag, Manuel Cebrian e Iyad Rahwan del Media Lab del MIT) lo entrenaron en el subreddit r/watchpeopledie, donde los usuarios publican videos de personas muriendo. La esperanza es que Norman aprenda a describir exactamente lo que vio, y lo que vio fue extremadamente sombrío (para que conste, los moderadores de r/watchpeopledie nos han dicho que el subreddit ayuda a muchas personas a enfrentarse a la fragilidad de la vida).
"Desde una perspectiva técnica, es posible rehabilitar a Norman si le proporcionamos suficiente contenido positivo"
“Queríamos crear una IA extrema que respondiera negativamente a las cosas, elegimos r/watchpeopledie como la fuente de los títulos de nuestras imágenes, ya que todas las descripciones de las imágenes brindan explicaciones detalladas de cómo muere una persona o un grupo de personas”, dijo. me dijeron los investigadores. “El resultado es una IA que responde a todo lo que ve de manera psicótica, ya que esto es lo único que vio”.
Como mencioné, había un propósito para esto además de crear un psicobot; Los investigadores y las empresas de IA a menudo entrenan bots en conjuntos de datos sesgados, lo que da como resultado una inteligencia artificial sesgada. A su vez, la IA sesgada puede reforzar los prejuicios existentes contra las personas de color, las mujeres y otras comunidades marginadas. Por ejemplo, se demostró que COMPAS, un algoritmo utilizado en sentencias penales, recomienda sentencias desproporcionadamente más largas para las personas negras. ¿Y recuerdas cuando el chatbot de Microsoft, Tay, se convirtió rápidamente en nazi?
“Teníamos en mente a Tay y varios otros proyectos cuando trabajábamos en este proyecto”, me dijeron los investigadores. “El sesgo y la discriminación en la IA es un tema enorme que se está volviendo popular, y el hecho de que las respuestas de Norman fueran mucho más oscuras ilustra una dura realidad en el nuevo mundo del aprendizaje automático”.
La buena noticia es que, aunque los investigadores pueden haber creado un monstruo, lo hicieron como advertencia. Y hay esperanza para Norman, que con suerte será un alivio para el autor de la carta que cité anteriormente.
“Desde una perspectiva técnica, es posible rehabilitar a Norman si le proporcionamos suficiente contenido positivo”, dijeron los investigadores. "También estamos recopilando datos del público sobre lo que ven en las manchas de tinta y esperamos utilizar estos datos para analizar qué tipo de respuestas ve el público y si podemos volver a capacitar a Norman usando estos datos".