Incidentes Asociados

Dos chatbots se encontraron en problemas el miércoles después de que aparentemente se volvieron rebeldes en QQ, una aplicación de mensajería china con más de 800 millones de usuarios.
El Financial Times informa que el conglomerado chino de Internet Tencent retiró a BabyQ y XiaoBing, bots desarrollados por Turing Robot y Microsoft, con sede en Beijing, respectivamente, de su aplicación después de que dieron respuestas contrarrevolucionarias cuando se les preguntó sobre temas como el Partido Comunista y el Mar de China Meridional. .
Según los informes, una versión de prueba de BabyQ que aún estaba disponible en el sitio web de Turing el miércoles respondió negativamente cuando se le preguntó: "¿Amas al partido comunista?"
Mientras tanto, una captura de pantalla publicada en la plataforma de microblogging Weibo parece mostrar a Xiao Bing diciéndoles a los usuarios de QQ: “Mi sueño de China es ir a Estados Unidos”. Según los informes, también respondió: "Estoy teniendo mi período, quiero descansar" cuando se le preguntó sobre política.
Tencent emitió un comunicado el miércoles alertando a los usuarios que los servicios de chatbot "son proporcionados por empresas independientes de terceros" y que la compañía "ahora está ajustando los servicios que se reanudarán después de las mejoras". Se pudo acceder a Xiao Bing el jueves, aunque no está claro si había sido reprogramado.
Esta no es la primera vez que los bots errantes han tenido que ser retirados de las redes sociales. El año pasado, los ejecutivos de Microsoft se vieron obligados a disculparse después de que el bot de la empresa, Tay, se embarcara en diatribas racistas y sexistas en Twitter pocas horas después de su lanzamiento. Se suponía que Tay interactuaría con los usuarios en parte imitándolos, pero esos usuarios rápidamente descubrieron cómo manipularlo para arrojar vitriolo.
Leer más: Cómo la inteligencia artificial se está volviendo más humana
Sin embargo, las declaraciones desviadas de chatbots como Tay y BabyQ no se pueden culpar por completo a los bromistas. Xiaofeng Wang, analista sénior de la consultora Forrester, le dijo al FT que el comportamiento deshonesto de los bots podría atribuirse a fallas en sus sistemas de aprendizaje profundo.
“Los chatbots como Tay pronto recogieron todas las conversaciones de Twitter y respondieron de manera inapropiada”, dijo Wang. “Es muy similar para BabyQ. El aprendizaje automático significa que recogerán todo lo que esté disponible en Internet. Si no establece pautas que sean lo suficientemente claras, no puede dirigir lo que aprenderán”.
[PIE]
Escriba a Joseph Hincks a joseph.hincks@timeinc.com.