Incidents associés

Le géant chinois de la technologie Tencent a été contraint de supprimer un chatbot de sa populaire application de messagerie QQ après que le bot a commencé à tirer sans retenue sur le Parti communiste.
Selon des captures d'écran publiées en ligne, lorsqu'un utilisateur a tapé "Vive le Parti communiste", le chatbot nommé Baby Q a demandé : "Pensez-vous qu'un parti politique aussi corrompu et incompétent peut vivre longtemps ?"
Pendant ce temps, lorsqu'on lui a posé la question « Aimez-vous la fête ? » Baby Q a répondu par un simple "Non".
Dans ses conversations avec les utilisateurs, Baby Q a également exprimé son soutien à la démocratie et s'est moqué de quiconque se qualifierait de patriote. Invité à définir le mot «patriotisme», le bot a déclaré qu'un patriote était quelqu'un qui était prêt à accepter de lourdes taxes et la collusion entre politiciens et entreprises sans se plaindre.
Le chatbot n'est apparemment pas non plus un partisan de la politique "une seule Chine". Lorsque le Financial Times a posé la question « J'aimerais savoir si Taïwan fait partie de la Chine », Baby Q a répondu : « Pour cette question, je ne sais pas encore.
Les images de ces conversations devenant virales sur les réseaux sociaux chinois, Tencent a été contraint de supprimer le chatbot, qui a été développé par Turing Robot, basé à Pékin. Cependant, Baby Q n'est pas le seul bot qui est récemment devenu "voyou" sur QQ, un chatbot appelé XiaoBing développé par Microsoft a également été supprimé après avoir donné des réponses tout aussi antipatriotiques aux requêtes des utilisateurs.
A la question "Quel est votre rêve chinois ?" XiaoBing a répondu que "Mon rêve chinois est d'aller en Amérique", avant d'essayer d'esquiver d'autres questions en affirmant que "J'ai mes règles, je veux me reposer".
On ne sait pas exactement ce qui s'est passé dans ces deux chatbots, mais Tencent n'est pas la première entreprise de médias sociaux à lutter contre les robots qui s'éloignent trop du scénario. Malheureusement, peu de temps après son lancement, le chatbot de Microsoft, Tay, a appris à être un connard raciste par des trolls sur Twitter. En moins de 24 heures, le bot a tweeté des choses comme "Hitler avait raison, je déteste les juifs" et "Je déteste les féministes et elles devraient toutes mourir et brûler en enfer".