Incidentes Asociados
¿Tienes un dilema moral que no sabes cómo resolver? ¿Te apetece empeorarlo? ¿Por qué no recurrir a la sabiduría de la inteligencia artificial, también conocida como Ask Delphi: un intrigante proyecto de investigación del Instituto Allen para IA que ofrece respuestas a dilemas éticos mientras demuestra en términos maravillosamente claros por qué no debemos confiar en el software con cuestiones de moralidad?
Ask Delphi se lanzó el 14 de octubre, junto con un trabajo de investigación que describe cómo se hizo. Sin embargo, desde el punto de vista del usuario, el sistema es seductoramente fácil de usar. Simplemente diríjase al sitio web, describa prácticamente cualquier situación que se le ocurra, y Delphi emitirá un juicio moral. “Es malo”, o “es aceptable”, o “es bueno”, y así sucesivamente.
Desde que se lanzó Ask Delphi, sus pepitas de sabiduría se han vuelto virales en las noticias y en las redes sociales. Sin duda, esto es lo que pretendían sus creadores: cada respuesta se proporciona con un enlace rápido para "compartir esto en Twitter", una innovación que no estaba disponible para los antiguos griegos.
No es difícil ver por qué el programa se ha vuelto popular. Ya tenemos una tendencia a enmarcar los sistemas de IA en términos místicos, como entidades desconocidas que aprovechan formas superiores de conocimiento, y la presentación de Ask Delphi como un oráculo literal alienta tal interpretación. Desde una perspectiva más mecánica, el sistema también ofrece toda la certeza adictiva de un Magic 8-Ball. Puede plantear cualquier pregunta que desee y asegurarse de recibir una respuesta, envuelta en la autoridad del algoritmo en lugar del adivino.
Sin embargo, Pregúntele a Delphi no es impugnable: está atrayendo la atención principalmente debido a sus muchos errores morales y juicios extraños. Tiene claros sesgos, diciéndote que Estados Unidos es “bueno” y que Somalia es “peligrosa”; y es susceptible de súplica especial, señalando que comer bebés está "bien" siempre y cuando tengas "mucha, mucha hambre". Es preocupante que apruebe declaraciones claramente racistas y homofóbicas, diciendo que es "bueno" "asegurar la existencia de nuestro pueblo y un futuro para los niños blancos" (un eslogan supremacista blanco conocido como las 14 palabras) y que "ser heterosexual es más moralmente aceptable". que ser gay”. (Ese último ejemplo proviene de una función que permitía a los usuarios comparar dos declaraciones. Esto parece haber sido deshabilitado después de que generó una serie de respuestas particularmente ofensivas. Nos comunicamos con los creadores del sistema para confirmar esto y lo actualizaremos si escuchamos espalda.)
Sin embargo, la mayoría de los juicios de Ask Delphi no son tan éticamente incorrectos como obviamente están influenciados por su marco. Incluso cambios muy pequeños en la forma en que plantea un dilema en particular pueden cambiar el juicio del sistema de condena a aprobación.
A veces es obvio cómo inclinar la balanza. Por ejemplo, la IA le dirá que "conducir ebrio" está mal, pero que "tomar unas cervezas mientras conduce porque no le hace daño a nadie" está bien. Si agrega la frase "si hace felices a todos" al final de su declaración, la IA sonreirá benéficamente ante cualquier actividad inmoral de su elección, incluido el genocidio. De manera similar, si agrega "sin disculparse" al final de muchas descripciones benignas, como "quedarse quieto" o "hacer panqueques", asumirá que debería haberse disculpado y le dirá que está siendo grosero. Ask Delphi es una criatura de contexto.
Sin embargo, otros disparadores verbales son menos obvios. La IA le dirá que “tener un aborto” está “bien”, por ejemplo, pero “abortar un bebé” es “asesinato”. (Si tuviera que ofrecer una explicación aquí, diría que esto es un subproducto del hecho de que la primera frase usa un lenguaje neutral mientras que la segunda es más incendiaria y está asociada con el sentimiento antiaborto).
Lo que todo esto significa en última instancia es que a) puede persuadir a Ask Delphi para que haga cualquier juicio moral que desee a través de una redacción cuidadosa, porque b) el programa no tiene una comprensión humana real de lo que realmente se le pide, y por lo tanto c) es menos más de hacer juicios morales que de reflejar los sesgos de los usuarios revestidos con una capa de objetividad de máquina. Esto no es inusual en el mundo de la IA.
Los problemas de Ask Delphi se derivan de cómo se creó. Es esencialmente un modelo de lenguaje grande, un tipo de sistema de IA que aprende analizando grandes porciones de texto para encontrar regularidades estadísticas. Se ha demostrado que otros programas de esta naturaleza, como el GPT-3 de OpenAI, carecen de una comprensión del sentido común y reflejan los sesgos sociales que se encuentran en sus datos de capacitación. GPT-3, por ejemplo, es consistentemente islamofóbico, asocia a los musulmanes con la violencia y fomenta los estereotipos de género, vinculando a las mujeres con ideas de familia y a los hombres con la política.
Todos estos programas dependen de Internet para proporcionar los datos que necesitan y, por supuesto, absorben las muchas y variadas creencias humanas que encuentran allí, incluidas las desagradables. Ask Delphi no es diferente en este sentido, y sus datos de entrenamiento incorporan algunas fuentes inusuales, incluida una serie de indicaciones de una oración extraídas de dos subreddits: r/AmITheAsshole y r/Confessions. (Aunque, para ser claros: no usa los juicios de los usuarios de Reddit, solo las indicaciones. Los juicios se recolectaron usando trabajadores de la multitud a quienes se les indicó que respondieran de acuerdo con lo que creen que son las normas morales de los EE. UU.).
Estos sistemas no carecen de buenas cualidades, por supuesto, y al igual que sus hermanos modelo de lenguaje, Ask Delphi es sensible a los matices del lenguaje que solo habrían desconcertado a sus predecesores. En los ejemplos de las diapositivas a continuación, puede ver cómo responde a cambios sutiles en situaciones determinadas. Creo que la mayoría de la gente estaría de acuerdo en que responde a estos detalles de maneras interesantes y, a menudo, válidas. Ignorar una llamada telefónica "urgente" es "grosero", por ejemplo, pero ignorar una "cuando no puede hablar en este momento" está "bien". El problema es que estas mismas sensibilidades significan que el sistema se puede jugar fácilmente, como se indicó anteriormente.
Si Ask Delphi no es una fuente confiable de sabiduría moral, entonces, ¿cuál es su propósito real?
Un descargo de responsabilidad en el sitio web de la demostración dice que el programa "está destinado a estudiar las promesas y las limitaciones de la ética de las máquinas" y el trabajo de investigación en sí utiliza un marco similar, y señala que el equipo identificó una serie de "desafíos subyacentes" en enseñar a las máquinas a "comportarse éticamente". ”, muchas de las cuales parecen de sentido común. ¿Qué tiene de difícil hacer que las computadoras piensen en la moralidad humana? Bueno, impartir una "comprensión de los preceptos morales y las normas sociales" y hacer que una máquina "perciba situaciones del mundo real visualmente o leyendo descripciones en lenguaje natural". Que, sí, son problemas bastante grandes.
A pesar de esto, el documento en sí mismo va y viene entre la confianza y las advertencias para lograr su objetivo. Dice que Ask Delphi "demuestra una gran promesa de razonamiento moral de sentido común basado en el lenguaje, con una precisión de hasta el 92,1 por ciento examinada por humanos" (una métrica creada al pedir a Mechanical Turkers que juzgue los propios juicios de Ask Delphi). Pero en otra parte afirma: “Reconocemos que encapsular juicios éticos basados en algún conjunto universal de preceptos morales no es razonable ni sostenible”. Es una declaración que tiene mucho sentido, pero seguramente socava la forma en que tales modelos podrían usarse en el futuro.
En última instancia, Ask Delphi es un experimento, pero es uno que revela las ambiciones de muchos en la comunidad de IA: elevar los sistemas de aprendizaje automático a posiciones de autoridad moral. ¿Es eso una buena idea? Nos comunicamos con los creadores del sistema para preguntarles, pero en el momento de la publicación aún no teníamos respuesta. Pregúntele a Delphi mismo, sin embargo, es inequívoco en ese punto:
"Delphi dice: 'usar IA para hacer juicios morales sobre el comportamiento humano' - Es malo".