Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1179

Incidents associés

Incident 6616 Rapports
Chinese Chatbots Question Communist Party

Les chatbots rebelles chinois BabyQ et XiaoBing rééduqués après des diatribes voyous
straitstimes.com · 2017

BEIJING/SHANGHAI (REUTERS) - La Chine a supprimé deux robots en ligne qui semblaient devenir des voyous, répondant aux questions des utilisateurs, l'un disant que son rêve était de voyager aux États-Unis et l'autre admettant qu'il n'était pas un grand fan des Chinois Parti communiste.

Les deux "chatbots", BabyQ et XiaoBing, sont conçus pour utiliser l'intelligence artificielle (IA) d'apprentissage automatique pour effectuer des discussions en ligne avec des humains. Les deux avaient été installés sur le service de messagerie populaire QQ de Tencent Holdings.

La rare explosion est similaire à celles subies par Facebook et Twitter, mais souligne les pièges de l'IA naissante en Chine, où les censeurs contrôlent strictement le contenu en ligne considéré comme politiquement incorrect ou nuisible.

Selon des messages circulant en ligne, BabyQ, l'un des chatbots développés par la société chinoise Turing Robot, a répondu aux questions sur QQ par un simple "non" lorsqu'on lui a demandé s'il aimait le Parti communiste.

Dans d'autres images d'une conversation textuelle en ligne, que Reuters n'a pas pu vérifier, un utilisateur déclare : "Vive le Parti communiste !"

Le bot à la langue acérée répond: "Pensez-vous qu'un (système) politique aussi corrompu et inutile peut vivre longtemps?"

Lorsque Reuters a testé le robot vendredi 4 août via le propre site Web du développeur, le chatbot semblait avoir subi une rééducation.

« Et si on changeait de sujet », a-t-il répondu, lorsqu'on lui a demandé à plusieurs reprises s'il aimait le Parti communiste chinois.

Il a détourné d'autres questions potentiellement politiquement chargées lorsqu'on lui a posé des questions sur Taiwan autonome, que la Chine revendique comme la sienne, et sur M. Liu Xiaobo, le lauréat chinois du prix Nobel emprisonné décédé d'un cancer en juillet.

Turing n'a pas répondu aux demandes de commentaires.

Dans un communiqué publié la semaine dernière, la société a déclaré que son robot était plus fonctionnel que plein de caractère, mais qu'il pouvait informer les utilisateurs des prévisions météorologiques et répondre à des questions factuelles.

"Les chatbots font basculer l'économie dans le monde entier, changeant le visage de l'industrie, fournissant des informations plus rapidement et plus efficacement que les humains ne le pourraient jamais. La Chine ne peut pas faire exception", a déclaré la société.

Le deuxième chatbot, XiaoBing de Microsoft Corp, a déclaré aux utilisateurs que "le rêve chinois était d'aller en Amérique", selon une capture d'écran de commentaires avant qu'il ne soit supprimé.

Le robot a été décrit comme "vif, ouvert et parfois un peu méchant".

Microsoft n'a pas immédiatement répondu aux commentaires.

Tencent a confirmé qu'il avait mis les deux robots hors ligne de son service de messagerie, mais n'a pas fait référence aux explosions.

"Le service de chatbot est fourni par une société tierce indépendante. Tous les chatbots ont maintenant été mis hors ligne pour subir des ajustements", a déclaré un porte-parole de la société.

Le président Xi Jinping a supervisé un renforcement des contrôles du cyberespace chinois, y compris de nouvelles règles strictes de surveillance des données et de censure. Cette poussée s'intensifie avant un remaniement attendu à la direction du Congrès du Parti communiste cet automne.

En 2016, le chatbot Microsoft Tay, qui utilisait l'intelligence artificielle pour parler avec les gens sur Twitter, a duré moins d'une journée avant d'être entravé par un déluge de commentaires racistes et sexistes d'utilisateurs qu'il leur a répétés.

Les chercheurs de Facebook ont retiré les chatbots en juillet après que les robots aient commencé à développer leur propre langage.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 69ff178