Incidents associés

Deux chatbots se sont retrouvés dans l'eau chaude mercredi après être apparemment devenus des voyous sur QQ, une application de messagerie chinoise avec plus de 800 millions d'utilisateurs.
Le Financial Times rapporte que le conglomérat Internet chinois Tencent a retiré BabyQ et XiaoBing – des robots développés respectivement par Turing Robot et Microsoft, basés à Pékin – de son application après avoir donné des réponses contre-révolutionnaires lorsqu'ils ont été interrogés sur des questions telles que le Parti communiste et la mer de Chine méridionale. .
Une version de test de BabyQ qui était encore accessible mercredi sur le site Web de Turing aurait répondu par la négative à la question : « Aimez-vous le parti communiste ?
Pendant ce temps, une capture d'écran publiée sur la plateforme de microblogging Weibo semble montrer Xiao Bing disant aux utilisateurs de QQ : « Mon rêve en Chine est d'aller en Amérique. Il aurait également répondu: "J'ai mes règles, je veux me reposer" lorsqu'il a été interrogé sur la politique.
Tencent a publié mercredi une déclaration alertant les utilisateurs que les services de chatbot "sont fournis par des sociétés tierces indépendantes" et que la société "ajuste actuellement les services qui seront repris après des améliorations". Xiao Bing était accessible jeudi, bien qu'il ne soit pas clair s'il avait été reprogrammé.
Ce n'est pas la première fois que des bots errants doivent être retirés des réseaux sociaux. L'année dernière, les dirigeants de Microsoft ont été contraints de s'excuser après que le bot Tay de la société se soit lancé dans des diatribes racistes et sexistes sur Twitter quelques heures après son lancement. Tay était censé interagir avec les utilisateurs en partie en les imitant, mais ces utilisateurs ont rapidement compris comment le manipuler pour cracher du vitriol.
Lire la suite : Comment l'intelligence artificielle devient plus humaine
Cependant, les déclarations déviantes de chatbots comme Tay et BabyQ ne peuvent pas être entièrement imputées aux farceurs. Xiaofeng Wang, analyste principal au cabinet de conseil Forrester, a déclaré au FT que le comportement malveillant des bots pourrait être attribuable à des failles dans leurs systèmes d'apprentissage en profondeur.
"Les chatbots tels que Tay ont rapidement repris toutes les conversations de Twitter et ont répondu de manière inappropriée", a déclaré Wang. "C'est très similaire pour BabyQ. L'apprentissage automatique signifie qu'ils vont récupérer tout ce qui est disponible sur Internet. Si vous ne définissez pas des directives suffisamment claires, vous ne pouvez pas diriger ce qu'ils apprendront.
[FT]
Écrivez à Joseph Hincks à joseph.hincks@timeinc.com.