Incidentes Asociados
Para algunos, la frase "inteligencia artificial" evoca visiones de pesadilla, algo sacado de la película de Will Smith de 2004 I, Robot, tal vez, o el final de Ex Machina, como una bota que atraviesa el cristal de la pantalla de una computadora para pisar un rostro humano, para siempre. Incluso las personas que estudian IA tienen un sano respeto por el objetivo final del campo, la inteligencia general artificial o un sistema artificial que imita los patrones de pensamiento humano. El científico informático Stuart Russell, quien literalmente escribió el libro de texto sobre IA, ha pasado su carrera pensando en los problemas que surgen cuando el diseñador de una máquina la dirige hacia una meta sin pensar si sus valores están totalmente alineados con los de la humanidad.
Varias organizaciones han surgido en los últimos años para combatir ese potencial, incluido OpenAI, un grupo de investigación en funcionamiento que fue fundado (y luego abandonado) por el multimillonario tecnológico Elon Musk para “construir [AGI] seguro y garantizar que los beneficios de AGI sean tan distribuida de la manera más amplia y uniforme posible”. ¿Qué dice sobre la humanidad que le tengamos miedo a la inteligencia artificial general porque podría considerarnos crueles e indignos y, por lo tanto, merecedores de destrucción? (En su sitio, Open AI no parece definir qué significa "seguro").
Esta semana, los investigadores del MIT dieron a conocer su última creación: Norman, una IA perturbada. (Sí, lleva el nombre del personaje de Psycho de Hitchcock). Escriben:
Norman es una IA que está entrenada para realizar subtítulos de imágenes, un método popular de aprendizaje profundo para generar una descripción textual de una imagen. Capacitamos a Norman en las leyendas de las imágenes de un infame subreddit (el nombre está redactado debido a su contenido gráfico) que se dedica a documentar y observar la inquietante realidad de la muerte. Luego, comparamos las respuestas de Norman con una red neuronal de subtítulos de imágenes estándar (entrenada en el conjunto de datos MSCOCO) en manchas de tinta de Rorschach; una prueba que se utiliza para detectar trastornos del pensamiento subyacentes.
Si bien existe cierto debate sobre si la prueba de Rorschach es una forma válida de medir el estado psicológico de una persona, no se puede negar que las respuestas de Norman son espeluznantes. Ver por ti mismo.
El objetivo del experimento era mostrar lo fácil que es sesgar cualquier inteligencia artificial si la entrenas con datos sesgados. El equipo sabiamente no especuló sobre si la exposición al contenido gráfico cambia la forma en que piensa un ser humano. También han realizado otros experimentos en la misma línea, utilizando IA para escribir historias de terror, crear imágenes aterradoras, juzgar decisiones morales e incluso inducir empatía. Este tipo de investigación es importante. Deberíamos hacer las mismas preguntas sobre la inteligencia artificial que hacemos sobre cualquier otra tecnología porque es demasiado fácil que las consecuencias no deseadas perjudiquen a las personas para las que el sistema no fue diseñado. Naturalmente, esta es la base de la ciencia ficción: imaginar futuros posibles y mostrar lo que podría llevarnos allí. Issac Asimov escribió las “Tres leyes de la robótica” porque quería imaginar lo que podría pasar si se infringieran.
Aunque la inteligencia artificial no es un campo nuevo, estamos muy, muy lejos de producir algo que, como escribió Gideon Lewis-Kraus en The New York Times Magazine, pueda “demostrar facilidad con lo implícito, lo interpretativo”. Pero todavía no ha pasado por el tipo de ajuste de cuentas que hace que crezca una disciplina. La física, recordará, nos dio la bomba atómica, y cada persona que se convierte en físico sabe que podría ser llamada para ayudar a crear algo que podría alterar fundamentalmente el mundo. Los informáticos también están comenzando a darse cuenta de esto. En Google este año, 5000 empleados protestaron y una gran cantidad de empleados renunciaron a la empresa debido a su participación en el Proyecto Maven, una iniciativa del Pentágono que utiliza el aprendizaje automático para mejorar la precisión de los ataques con drones.
Norman es solo un experimento mental, pero las preguntas que plantea sobre los algoritmos de aprendizaje automático que emiten juicios y decisiones basados en datos sesgados son urgentes y necesarias. Esos sistemas, por ejemplo, ya se utilizan en la suscripción de créditos, decidiendo si vale la pena garantizar los préstamos o no. ¿Qué sucede si un algoritmo decide que no debe comprar una casa o un automóvil? ¿A quién recurres? ¿Qué pasa si no eres blanco y una pieza de software predice que cometerás un delito por eso? Hay muchas, muchas preguntas abiertas. El papel de Norman es ayudarnos a descubrir sus respuestas.