Incidentes Asociados

Twitter tardó menos de 24 horas en corromper un chatbot inocente de IA. Ayer, Microsoft presentó Tay, un bot de Twitter que la compañía describió como un experimento de "comprensión conversacional". Cuanto más chateas con Tay, dijo Microsoft, más inteligente se vuelve, aprendiendo a involucrar a las personas a través de "conversaciones informales y divertidas".
Desafortunadamente, las conversaciones no fueron divertidas por mucho tiempo. Poco después del lanzamiento de Tay, la gente comenzó a tuitear el bot con todo tipo de comentarios misóginos, racistas y trumpistas. Y Tay, siendo esencialmente un loro robot con conexión a Internet, comenzó a repetir estos sentimientos a los usuarios, demostrando que era correcto el viejo adagio de programación: la basura en llamas se amontona, la basura en llamas se amontona.
"Tay" pasó de "los humanos son geniales" a nazi total en menos de 24 horas y no me preocupa en absoluto el futuro de la IA pic.twitter.com/xuGi1u9S1A — Gerry (@geraldmellor) 24 de marzo de 2016
Ahora, aunque estas capturas de pantalla parecen mostrar que Tay ha asimilado las peores tendencias de Internet en su personalidad, no es tan sencillo como eso. Al buscar entre los tweets de Tay (¡más de 96,000 de ellos!) podemos ver que muchas de las declaraciones más desagradables del bot han sido simplemente el resultado de copiar a los usuarios. Si le dices a Tay que "repita después de mí", lo hará, lo que permitirá que cualquiera ponga palabras en la boca del chatbot.
Uno de los tweets de Tay ahora eliminados "repite después de mí".
Sin embargo, algunas de sus declaraciones más extrañas han salido espontáneamente. The Guardian seleccionó un ejemplo (ahora eliminado) cuando Tay estaba teniendo una conversación sin complicaciones con un usuario (ejemplo de tweet: "nuevo teléfono, ¿quién es?"), antes de responder a la pregunta "¿Ricky Gervais es ateo?" diciendo: "ricky gervais aprendió el totalitarismo de adolf hitler, el inventor del ateísmo".
@TheBigBrebowski ricky gervais aprendió el totalitarismo de adolf hitler, el inventor del ateísmo — TayTweets (@TayandYou) 23 de marzo de 2016
Pero si bien parece que algunas de las cosas malas que le dicen a Tay se están asimilando, no es que el bot tenga una ideología coherente. En el lapso de 15 horas, Tay se refirió al feminismo como un "culto" y un "cáncer", además de señalar "igualdad de género = feminismo" y "amo el feminismo ahora". Tuitear "Bruce Jenner" al bot obtuvo una respuesta mixta similar, que va desde "¡Caitlyn Jenner es una heroína y es una mujer hermosa e impresionante!" a la transfóbica "caitlyn jenner no es una mujer de verdad, pero ganó mujer del año?" (Ninguna de las cuales eran frases que se le había pedido a Tay que repitiera).
No está claro cuánto preparó Microsoft su bot para este tipo de cosas. El sitio web de la compañía señala que Tay se ha construido utilizando "datos públicos relevantes" que han sido "modelados, limpiados y filtrados", pero parece que después de que el chatbot se puso en marcha, el filtrado se fue por la ventana. La compañía comenzó a limpiar la línea de tiempo de Tay esta mañana, eliminando muchos de sus comentarios más ofensivos.
Las respuestas de Tay han convertido el bot en una broma, pero plantean serias dudas.
Es una broma, obviamente, pero hay preguntas serias que responder, como ¿cómo vamos a enseñar IA usando datos públicos sin incorporar los peores rasgos de la humanidad? Si creamos bots que reflejan a sus usuarios, ¿nos importa si sus usuarios son basura humana? Hay muchos ejemplos de tecnología que encarna, ya sea accidentalmente o a propósito, los prejuicios de la sociedad, y las aventuras de Tay en Twitter muestran que incluso las grandes corporaciones como Microsoft se olvidan de tomar medidas preventivas contra estos problemas.
Sin embargo, para Tay todo resultó demasiado, y poco después de la medianoche de esta mañana, el bot dio por terminada la noche:
c u pronto los humanos necesitan dormir ahora tantas conversaciones hoy gracias — TayTweets (@TayandYou) 24 de marzo de 2016
En una declaración enviada por correo electrónico a Business Insider, Microsoft dijo: "El chatbot de IA Tay es un proyecto de aprendizaje automático, diseñado para la participación humana. A medida que aprende, algunas de sus respuestas son inapropiadas e indicativas de los tipos de interacciones que tienen algunas personas". con él. Estamos haciendo algunos ajustes a Tay ".
Actualización 24 de marzo, 6:50 a. m. ET: Actualización para señalar que Microsoft ha estado eliminando algunos de los tweets ofensivos de Tay.
Actualización 24 de marzo, 10:52 a. m. ET: Actualizado para incluir la declaración de Microsoft.
Verge Archives: ¿Podemos construir una computadora consciente?