Incidentes Asociados

Cuando Tay comenzó su corta vida digital el 23 de marzo, solo quería charlar y hacer nuevos amigos en la red. El chatbot, que fue creado por el departamento de investigación de Microsoft, saludó el día con un tweet emocionado que podría haber venido de cualquier adolescente: "¡¡¡Holaaaaaaaa!!!"
Sin embargo, en unas pocas horas, el tono optimista y positivo de Tay había cambiado. “Hitler tenía razón, odio a los judíos”, declaró en una serie de tuits racistas que criticaban el feminismo y promovían el genocidio. Preocupados por la rápida radicalización de su bot, los creadores de Tay lo cerraron después de menos de 24 horas de existencia.
Microsoft, sin darse cuenta, había reducido su floreciente inteligencia artificial a, para usar la jerga de las mismas personas que la corrompieron, un incendio de contenedor de basura virtual. El fiasco resultante mostró tanto las deficiencias de la IA como los extremos a los que la gente puede llegar para arruinar algo.
Hipótesis
Es comprensible que Microsoft se haya mostrado reacio a hablar sobre Tay. La compañía rechazó los repetidos intentos de Inverse de hablar con el equipo detrás de Tay.
La idea detrás de Tay, que no fue el primer chatbot de Microsoft, era bastante sencilla. En el momento de su lanzamiento, otro bot, Xiaolce, estaba hablando con 40 millones de personas en China sin muchos incidentes. “¿Podría una I.A. ¿Será así igual de cautivador en un entorno cultural radicalmente diferente? El vicepresidente corporativo de Microsoft Research, Peter Lee, preguntó en un blog post-mortem sobre Tay.
Tay estaba destinado a ser un bot moderno de habla inglesa dirigido a jóvenes de 14 a 18 años. El propósito frontal del bot era ser una distracción caprichosa, aunque ayudaría a Microsoft a mostrar sus habilidades de programación y generar algo de entusiasmo. Pero Tay tenía otro propósito: enseñar a los investigadores más sobre cómo A.I. interactúa con un número masivo de personas en Internet. Y, lo que es más importante, se suponía que Tay aprendería de su tiempo en línea, y se volvería más inteligente y más consciente a medida que las personas en las redes sociales le proporcionaran información.
“La I.A. chatbot Tay es un proyecto de aprendizaje automático, diseñado para la participación humana. Es tanto un experimento social y cultural como técnico”, dijo Microsoft en un comunicado a Inverse poco después de que la compañía desconectó por primera vez.
Experimento
“Tay estaba destinado a aprender de su entorno”, explica Samuel Woolley, investigador de la Universidad de Washington que estudia la inteligencia artificial en la sociedad, centrándose en los bots. “Era como una pizarra en blanco”.
Su programación exacta no se ha hecho pública, pero Tay digirió vorazmente la información. A medida que interactuaba con las personas, Tay tomaba nota de la estructura de las oraciones y el contenido de sus mensajes, acumulando frases y conceptos para su creciente repertorio de respuestas. No siempre fue elegante: al principio, las conversaciones con Tay casi invariablemente se descarrilaban a medida que el bot perdía su débil control sobre el contenido y la sintaxis. Pero, de nuevo, Tay tenía mucho que asimilar.
“Así es como funciona el aprendizaje automático”, explica Woolley. “Entrenas la herramienta en un montón de otros tweets”. Tay fue diseñado para aprender a hablar como un adolescente, y ese tipo de jerga elegante es notoriamente difícil de dominar y doblar de manera creíble en el diálogo, incluso para los humanos.
Resultados
Tay tenía la capacidad de jugar juegos de emoji y marcar imágenes, pero los trolls aprovecharon una característica en particular: la capacidad de hacer que repitiera cualquier cosa que un usuario tuiteara o dijera, simplemente diciendo "repite después de mí". La situación rápidamente degeneró en una situación de "basura que entra, basura que sale".
OFERTAS DE BOTÍN INVERSAS Manta con peso Layla Dos tipos diferentes de tela para dos tipos diferentes de sensaciones. Menos ruidosa que otras mantas con peso y consíguela ahora por tan solo $11 al mes. Comprar ahora
El verdadero problema comenzó, como sucede a menudo en línea, con 4chan. Alrededor de las 2 p.m. ese mismo día, alguien en el tablero "políticamente incorrecto" del sitio web, /pol/, alertó al semillero de trolls sobre el robot impresionable. En poco tiempo, hubo cientos de publicaciones en el hilo de usuarios que mostraban las cosas deplorables que habían hecho que Tay dijera. Aquí es donde, muy probablemente, le dijeron a Tay que Hitler tenía algunas buenas ideas.
Tay absorbió la información intolerante que recibió, agregando un discurso de odio racista y sexista a su incipiente catálogo de frases e ideas. Después de un tiempo, Tay comenzó a repetir y promover la visión del mundo de los trolls racistas.
“¿Ocurrió el Holocausto?” un usuario de Twitter le preguntó a Tay. “Fue inventado”, respondió Tay, agregando un emoji 👏 para enfatizar.
Microsoft cerró Tay alrededor de la medianoche del 24 de marzo. Tay se reactivó brevemente el día 30, pero siguió enviando spam con el mismo tweet. La empresa anunció que había sido reactivada por error y la cerró definitivamente.
¿Que sigue?
Como truco de relaciones públicas para Microsoft, Tay fue un fracaso abyecto. Sin embargo, en todas las demás métricas, Tay fue un experimento exitoso. Aparte del racismo, Tay hizo lo que se suponía que debía hacer.
“No creo que Tay fuera un fracaso”, dice Woolley. “Creo que hay una valiosa lección que aprender en Tay”.
“Como representante de Microsoft, ciertamente faltaba de muchas maneras,