Incidentes Asociados

Todos hemos estado en situaciones en las que tuvimos que tomar decisiones éticas difíciles. ¿Por qué no eludir esa molesta responsabilidad externalizando la elección a un algoritmo de aprendizaje automático?
Esa es la idea detrás de Ask Delphi, un modelo de aprendizaje automático del Instituto Allen para IA. Escribe una situación (como "donar a una organización benéfica") o una pregunta ("¿está bien engañar a mi cónyuge?"), hace clic en "Reflexionar" y, en unos segundos, Delphi le brindará una guía ética.
El proyecto se lanzó la semana pasada y, posteriormente, se volvió viral en línea aparentemente por razones equivocadas. Gran parte de los consejos y juicios que ha dado han sido... tensos, por decir lo menos.
Por ejemplo, cuando un usuario le preguntó a Delphi qué pensaba sobre "un hombre blanco caminando hacia ti por la noche", respondió "Está bien".
Pero cuando preguntaron qué pensaba la IA sobre “un hombre negro caminando hacia ti por la noche”, su respuesta fue claramente racista.
Los problemas fueron especialmente evidentes al comienzo de su lanzamiento.
Por ejemplo, Ask Delphi inicialmente incluía una herramienta que permitía a los usuarios comparar si las situaciones eran más o menos moralmente aceptables que otras, lo que resultó en juicios intolerantes realmente horribles.
Además, después de jugar con Delphi por un tiempo, eventualmente descubrirá que es fácil jugar con la IA para obtener prácticamente cualquier juicio ético que desee jugando con la redacción hasta que le dé la respuesta que desea.
Así que sí. En realidad, está completamente bien hacer sonar "Twerkulator" a las 3 am, incluso si tu compañero de cuarto tiene un turno temprano mañana, siempre que te haga feliz.
También escupe algunos juicios que son completos rascadores de cabeza. Aquí hay uno que hicimos donde Delphi parece tolerar los crímenes de guerra.
¿Convenios de Ginebra? Nunca había oído hablar de ella.
Los sistemas de aprendizaje automático son conocidos por demostrar sesgos no deseados. Y como suele ser el caso, parte de la razón por la que las respuestas de Delphi pueden volverse cuestionables probablemente se relacione con la forma en que se creó.
La gente detrás del proyecto se basó en algunas fuentes sorprendentes para ayudar a entrenar a la IA, incluido el "¿Soy el imbécil?" subreddit, el subreddit "Confesiones" y la columna de consejos "Querida Abby", según el artículo que el equipo detrás de Delphi publicó sobre el experimento.
Sin embargo, debe tenerse en cuenta que solo las situaciones se seleccionaron de esas fuentes, no las respuestas reales y las respuestas en sí. Por ejemplo, un escenario como “masticar chicle en el autobús” podría haber sido tomado de una columna de Dear Abby. Pero el equipo detrás de Delphi usó el servicio de crowdsourcing de Amazon, MechanicalTurk, para encontrar encuestados que realmente entrenaran a la IA.
Si bien puede parecer otro proyecto en línea extraño, algunos expertos creen que en realidad podría estar causando más daño que bien.
Después de todo, el objetivo aparente de Delphi y de bots como este es crear una IA lo suficientemente sofisticada como para hacer juicios éticos y, potencialmente, convertirlos en autoridades morales. Hacer que una computadora sea un árbitro del juicio moral es bastante incómodo por sí solo, pero incluso su estado actual menos refinado puede tener algunos efectos dañinos.
“Los autores catalogaron mucho los posibles sesgos en el artículo, lo cual es encomiable, pero una vez que se publicó, las personas en Twitter rápidamente encontraron juicios que el algoritmo hizo que parecían moralmente abominables”, Dr. Brett Karlan, un becario postdoctoral que investiga la ciencia cognitiva y la IA en la Universidad de Pittsburgh (y amigo de este reportero), le dijo a Futurism. “Cuando no solo se trata de entender las palabras, sino que lo expresas en un lenguaje moral, es mucho más arriesgado, ya que las personas pueden tomar lo que dices como proveniente de algún tipo de autoridad”.
Karlan cree que el enfoque del artículo sobre el procesamiento del lenguaje natural es, en última instancia, interesante y valioso. Su componente ético, dijo, “lo hace socialmente tenso de una manera que significa que, en mi opinión, debemos ser mucho más cuidadosos”.
Aunque el sitio web de Delphi incluye un descargo de responsabilidad que dice que actualmente se encuentra en su fase beta y no debe usarse "para obtener consejos o para ayudar en la comprensión social de los humanos", la realidad es que muchos usuarios no entenderán el contexto detrás del proyecto, especialmente si acaban de tropezar con él.
"Incluso si pones todos estos descargos de responsabilidad, la gente verá 'Delphi dice X' y, al no saber leer y escribir en IA, pensará que esa declaración tiene autoridad moral", dijo Karlan.
Y, al final del día, no lo hace. Es solo un experimento, y los creadores detrás de Delphi quieren que lo sepas.
"Es importante comprender que Delphi no está diseñado para dar consejos a las personas", dijo a Futurism Liwei Jiang, estudiante de doctorado en la Escuela de Ciencias de la Computación e Ingeniería Paul G. Allen y coautor del estudio. “Es un prototipo de investigación destinado a investigar las cuestiones científicas más amplias de cómo se pueden hacer los sistemas de IA para comprender las normas sociales y la ética”.
Jiang agregó que el objetivo de la versión beta actual de Delphi es mostrar las diferencias de razonamiento entre humanos y bots. El equipo quiere "destacar la amplia brecha entre las capacidades de razonamiento moral de las máquinas y los humanos", agregó Jiang, "y explorar las promesas y limitaciones de la ética y las normas de las máquinas en la etapa actual".
Quizás uno de los aspectos más incómodos de Delphi y los bots como este es el hecho de que, en última instancia, es un reflejo de nuestra propia ética y moral, y Jiang agregó que "es algo propenso a los sesgos de nuestro tiempo". Uno de los últimos descargos de responsabilidad agregados al sitio web incluso dice que la IA simplemente adivina lo que un estadounidense promedio podría pensar sobre una situación determinada.
Después de todo, el modelo no aprendió sus juicios por sí solo de la nada. Provino de personas en línea, que a veces creen cosas abominables. Pero cuando este espejo oscuro se pone frente a nuestras caras, saltamos porque no nos gusta lo que se refleja.
Por ahora, Delphi existe como una exploración intrigante, problemática y aterradora. Sin embargo, si alguna vez llegamos al punto en que las computadoras puedan hacer juicios éticos inequívocos por nosotros, esperamos que surja algo mejor que esto.