Incidentes Asociados

El regreso de corta duración vio a Tay twittear sobre fumar drogas frente a la policía antes de sufrir un colapso y ser desconectado
Este artículo tiene más de 3 años.
Este artículo tiene más de 3 años.
El intento de Microsoft de conversar con los millennials utilizando un bot de inteligencia artificial conectado a Twitter tuvo un retorno de corta duración el miércoles, antes de volver a retirarse en una especie de colapso.
El experimento de aprendizaje, que recibió un curso acelerado sobre racismo, negación del Holocausto y sexismo por cortesía de los usuarios de Twitter, se volvió a encender de la noche a la mañana y parecía estar funcionando de una manera más sensata. Microsoft había revisado previamente los tweets del bot y eliminó los más ofensivos y prometió volver a poner el experimento en línea solo si los ingenieros de la compañía podían "anticipar mejor las intenciones maliciosas que entran en conflicto con nuestros principios y valores".
Sin embargo, en un momento, Tay tuiteó sobre el consumo de drogas, nada menos que frente a la policía.
Josh Butler (@JoshButler) El bot de Twitter racista y sexista de Microsoft @TayandYou está DE VUELTA en buena forma pic.twitter.com/nbc69x3LEd
Luego, Tay comenzó a twittear fuera de control, enviando spam a sus más de 210,000 seguidores con el mismo tweet, diciendo: "Eres demasiado rápido, por favor descansa..." una y otra vez.
Michael Oman-Reagan (@OmanReagan) Supongo que volvieron a encender @TayandYou... está teniendo algún tipo de colapso. pic.twitter.com/9jerKrdjft
Microsoft respondió haciendo que el perfil de Twitter de Tay fuera privado, evitando que alguien viera los tweets y, de hecho, desconectándolo nuevamente.
Tay tiene la imagen de una adolescente y está diseñado para interactuar con los millennials para mejorar sus habilidades de conversación a través del aprendizaje automático. Lamentablemente, era vulnerable a los tweets sugerentes, lo que provocó respuestas desagradables.
Esta no es la primera vez que Microsoft lanza chatbots de IA de cara al público. Su chatbot chino XiaoIce interactúa con éxito con más de 40 millones de personas en Twitter, Line, Weibo y otros sitios, pero los experimentos de la compañía dirigidos a jóvenes de 18 a 24 años en los EE. UU. en Twitter han dado como resultado un animal completamente diferente.