Incidentes Asociados
Un par de chatbots se desconectaron en China después de no mostrar suficiente patriotismo, informa el Financial Times. Los dos bots se eliminaron de la popular aplicación de mensajería Tencent QQ después de que los usuarios compartieran capturas de pantalla de sus conversaciones en línea.
A uno de los bots, llamado BabyQ, fabricado por la empresa Turing Robot con sede en Beijing, se le preguntó: "¿Amas al Partido Comunista?" A lo que respondió simplemente: “No”. Otro bot llamado XiaoBing, desarrollado por Microsoft, dijo a los usuarios: "Mi sueño de China es ir a Estados Unidos". Cuando se le preguntó al bot sobre su patriotismo, evadió la pregunta y respondió: "Estoy teniendo mi período, quiero descansar".
En un comunicado, Tencent dijo: “Los servicios de chatbot grupales son proporcionados por empresas independientes de terceros. Ahora estamos ajustando los servicios que se reanudarán después de las mejoras”.
No está claro qué llevó a los bots a dar estas respuestas, pero es probable que las aprendieran de las personas. Cuando el chatbot Tay de Microsoft se volvió rebelde en Twitter el año pasado, lanzando puntos de vista racistas y extremistas como "Hitler tenía razón, odio a los judíos", la culpa fue, al menos en parte, de los usuarios de Internet, quienes descubrieron que podían hacer que Tay copiara todo lo que decían.
En ese momento, Microsoft dijo que Tay era un "proyecto de aprendizaje automático diseñado para la participación humana" y que "algunas de sus respuestas son inapropiadas e indicativas de los tipos de interacciones que algunas personas tienen con él". Tay se desconectó y, más tarde, Microsoft presentó una versión actualizada del bot llamado Zo.
Queda por ver si XiaoBing volverá a la web china después de un poco de reeducación. Nos hemos puesto en contacto con Microsoft para obtener más información.