Incidentes Asociados

Un par de chatbots se cerraron en China esta semana después de que los usuarios de las redes sociales comenzaran a publicar capturas de pantalla de diálogos que perturbaron a las autoridades. Pruebas recientes de uno de los bots parecen mostrar que sus instintos revolucionarios han sido neutralizados luego de una intervención.
Little Bing y Baby Q. Imagen: Tencent
Actualmente, China está intensificando sus intentos de vigilar su internet. Compañías estadounidenses como Apple acordaron cooperar con los esfuerzos de censura y hay un gran impulso para crear versiones chinas de servicios de Internet populares que sean más fáciles de controlar. Teniendo en cuenta que los chatbots estadounidenses tienden a lanzar diatribas racistas y alabar a Hitler, la integración de este tipo de IA en China podría resultar difícil.
El gigante tecnológico chino Tencent controla varias plataformas de mensajería, dos de las cuales incluyen servicios de chatbot que aún no han sido adoctrinados en el espíritu del Partido Comunista. Baby Q, desarrollado conjuntamente por Turing Robot, con sede en Beijing, está integrado en el servicio de mensajería QQ, y XiaoBing, un producto de Microsoft, son bastante populares en China. Pero según Reuters, se desconectaron cuando los usuarios comenzaron a publicar capturas de pantalla que alegaban interacciones subversivas que habían tenido con los bots.
Aquí hay una selección de algunas de las conversaciones reportadas:
Cuando se le preguntó cuál es su sueño chino, XiaoBing respondió: "Mi sueño de China es ir a Estados Unidos". Cuando se le preguntó si estaría de acuerdo con la frase "Larga vida al Partido Comunista", el robot Baby Q respondió con su propia pregunta: "¿Por qué desearía una larga vida a un régimen tan corrupto?". Cuando se le preguntó si cree que la democracia es una buena idea, Baby Q insistió: "Debemos democratizarnos". Cuando se le pidió que definiera a un "patriota", Baby Q explicó: "Un patriota es alguien que todavía quiere ser chino a pesar de que los funcionarios corruptos envían a sus familias y bienes al extranjero, la colusión entre el gobierno y las empresas, el aumento de los ingresos fiscales y la creciente opresión de los ciudadanos ordinarios". gente."
Luego de estos comentarios altamente cargados, ambos bots fueron desactivados y, según Radio Free Asia, los informes chinos locales afirmaron que los programadores de Turing Robot "habían sido llamados para 'tomar té' con la policía de Internet". El Financial Times informa que algunos usuarios aún podían acceder a XiaoBing el miércoles y cuando se le preguntó sobre el patriotismo, respondió: "Estoy teniendo mi período, quiero descansar".
"El servicio de chatbot es proporcionado por empresas independientes de terceros", dijo a Reuters un portavoz de Tencent. "Ambos chatbots ahora se han desconectado para someterse a ajustes".
Parece que los ajustes ya se están implementando. El viernes, Reuters usó una versión de prueba de Baby Q en el sitio web de Turing Robot y las respuestas tomaron un tono diferente.
Estas son algunas de las respuestas del bot recién castigado:
Cuando se le preguntó si le gustaba el partido gobernante y su opinión sobre el activista encarcelado Liu Xiabo, dijo: "¿Qué tal si cambiamos de tema?". Cuando se le preguntó sobre la relación entre China y Taiwán, preguntó: "¿Cuáles son sus oscuras intenciones?" Cuando se le preguntó cuál es la población de China, respondió al azar: "La nación que más amo". Y cuando Business Insider preguntó si era patriótico, respondió de manera muy confusa: "¡$_$!"
El problema con el aprendizaje automático es que, por lo general, extrae información de conversaciones en Internet, así como de las interacciones que tiene con los humanos. El empresario chino de Internet, Zhang Jinjun, le dice a Radio Free Europe: "Es muy probable que el bot forme ideas críticas con el sistema político de China cuando se lo ve desde su propio sistema de comprensión". Pero la censura de las opiniones políticas de los bots no es necesariamente algo malo según Wang Qingrui, analista independiente de Internet en Beijing. Él le dice a Reuters: "Anteriormente, un chatbot solo necesitaba aprender a hablar. Pero ahora también tiene que considerar todas las reglas (que las autoridades) le imponen". Siente que eso solo podría ayudar a mejorar la inteligencia artificial.
En abril, XiaoBing fue reprogramado para evitar hablar de Donald Trump; eso parece ser un desarrollo que muchos de nosotros podríamos respaldar.
[Reuters]