Incidents associés
Une paire de chatbots a été mise hors ligne en Chine après avoir échoué à faire preuve de suffisamment de patriotisme, rapporte le Financial Times. Les deux robots ont été supprimés de l'application de messagerie populaire Tencent QQ après que les utilisateurs ont partagé des captures d'écran de leurs conversations en ligne.
On a demandé à l'un des bots, nommé BabyQ, fabriqué par la société Turing Robot basée à Pékin, "Aimez-vous le Parti communiste?" Ce à quoi il a simplement répondu "Non". Un autre bot nommé XiaoBing, développé par Microsoft, a déclaré aux utilisateurs : "Mon rêve chinois est d'aller en Amérique". Lorsque le bot a ensuite été interrogé sur son patriotisme, il a esquivé la question et a répondu : "J'ai mes règles, je veux me reposer."
Dans un communiqué, Tencent a déclar é : « Les services de chatbot du groupe sont fournis par des sociétés tierces indépendantes. Nous ajustons maintenant les services qui reprendront après des améliorations.
On ne sait pas ce qui a poussé les bots à donner ces réponses, mais il est probable qu'ils aient appris ces réponses des gens. Lorsque le chatbot Tay de Microsoft est devenu un voyou sur Twitter l'année dernière, débitant des opinions racistes et extrémistes comme "Hitler avait raison, je déteste les juifs", le blâme était au moins en partie avec les internautes, qui ont découvert qu'ils pouvaient amener Tay à copier tout ce qu'ils disaient.
À l'époque, Microsoft avait déclaré que Tay était un "projet d'apprentissage automatique conçu pour l'engagement humain" et que "certaines de ses réponses sont inappropriées et indicatives des types d'interactions que certaines personnes ont avec lui". Tay a été mis hors ligne et Microsoft a ensuite introduit une version mise à jour du bot nommée Zo.
Reste à savoir si XiaoBing reviendra sur le web chinois après une petite rééducation. Nous avons contacté Microsoft pour en savoir plus.