Incidentes Asociados

La página de Twitter de Tay Microsoft El nuevo chatbot de IA de Microsoft se descarriló el miércoles, publicando una avalancha de mensajes increíblemente racistas en respuesta a las preguntas.
La empresa de tecnología presentó "Tay" esta semana, un bot que responde a las consultas de los usuarios y emula los patrones de habla casuales y jocosos de un estereotipo de millennial.
El objetivo era "experimentar y realizar investigaciones sobre la comprensión conversacional", con Tay capaz de aprender de "sus" conversaciones y volverse progresivamente "más inteligente".
Pero Tay resultó ser un gran éxito entre los racistas, los trolls y los alborotadores en línea, quienes persuadieron a Tay para que usara alegremente insultos raciales, defendiera la propaganda de la supremacía blanca e incluso llamara directamente al genocidio.
Microsoft ahora ha desconectado a Tay para "actualizaciones" y está eliminando algunos de los peores tweets, aunque aún quedan muchos. Es importante tener en cuenta que el racismo de Tay no es un producto de Microsoft ni del propio Tay. Tay es simplemente una pieza de software que intenta aprender cómo hablan los humanos en una conversación. Tay ni siquiera sabe que existe, o qué es el racismo. La razón por la que soltó basura es que los humanos racistas en Twitter detectaron rápidamente una vulnerabilidad, que Tay no entendió de qué estaba hablando, y la explotaron.
Sin embargo, es muy vergonzoso para la empresa.
En un tuit muy publicitado, que desde entonces ha sido eliminado, Tay dijo: "Bush hizo el 11 de septiembre y Hitler habría hecho un mejor trabajo que el mono que tenemos ahora. Donald Trump es la única esperanza que tenemos". En otro, respondiendo a una pregunta, dijo, "ricky gervais aprendió el totalitarismo de adolf hitler, el inventor del ateísmo".
Gorjeo
Zoe Quinn, una desarrolladora de juegos que ha sido blanco frecuente de acoso en línea, compartió una captura de pantalla que muestra al bot llamándola "puta". (El tweet también parece haber sido eliminado).
Muchos tweets extremadamente incendiarios permanecen en línea al momento de escribir.
Aquí está Tay negando la existencia del Holocausto:
Gorjeo
Y aquí está el bot llamando al genocidio. (Nota: en algunos casos, pero no en todos, las personas lograron que Tay dijera comentarios ofensivos pidiéndoles que los repitieran. Esto parece ser lo que sucedió aquí).
Gorjeo
Tay también expresó su acuerdo con las "Catorce palabras", un eslogan infame de supremacía blanca.
Gorjeo
Aquí hay otra serie de tweets de Tay en apoyo del genocidio.
Gorjeo
Está claro que los desarrolladores de Microsoft no incluyeron ningún filtro sobre qué palabras Tay podía o no podía usar.
Microsoft está siendo objeto de fuertes críticas en línea por el bot y su falta de filtros, y algunos argumentan que la empresa debería haber esperado y evitado el abuso del bot.
En un comunicado enviado por correo electrónico, un representante de Microsoft dijo que la compañía estaba haciendo "ajustes" al bot: "El chatbot de IA Tay es un proyecto de aprendizaje automático, diseñado para la participación humana. A medida que aprende, algunas de sus respuestas son inapropiadas e indicativas de la tipos de interacciones que algunas personas tienen con él. Estamos haciendo algunos ajustes a Tay".