Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 914

Incidents associés

Incident 628 Rapports
Microsoft's TayBot Allegedly Posts Racist, Sexist, and Anti-Semitic Content to Twitter

Loading...
Microsoft chatbot Zo est une version censurée de Tay
wired.co.uk · 2016

Le successeur de Tay s'appelle Zo et n'est disponible que sur invitation sur l'application de messagerie Kik. Lorsque vous demandez l'accès, le logiciel vous demande votre nom d'utilisateur Kik et votre identifiant Twitter Microsoft

Ayant (espérons-le) appris de sa précédente incursion dans les chatbots, Microsoft est prêt à présenter la suite de son controversé AI Tay.

Le successeur de Tay s'appelle Zo et n'est disponible que sur invitation sur l'application de messagerie Kik. Lorsque vous demandez l'accès, le logiciel vous demande votre nom d'utilisateur Kik et votre identifiant Twitter. Si vous n'utilisez pas déjà Kik, vous pouvez cocher une case pour indiquer que vous utilisez Facebook Messenger ou Snapchat.

Cela suggère que Zo se lancera probablement bientôt sur ces autres services/si le chatbot n'est pas retiré pour avoir offensé.

Le chatbot controversé Tay a été abandonné après être devenu un voyou Microsoft

Lire la suite Comment HoloLens 2 se compare à ses casques de réalité mixte rivaux Comment HoloLens 2 se compare à ses casques de réalité mixte rivaux

Plus tôt cette année, Microsoft a annoncé en grande pompe qu'il avait créé un chatbot d'intelligence artificielle qui "deviendrait plus intelligent plus vous lui parleriez".

Il était destiné à la génération Y et Microsoft et Bing l'ont décrit comme suit : "Une famille d'IA d'Internet qui n'a aucun froid !" L'objectif du bot était de permettre aux chercheurs d'"expérimenter" la compréhension conversationnelle et d'apprendre comment les gens se parlent vraiment.

Le problème était que Tay travaillait à l'aide de données publiques et tirait des enseignements des commentaires et des conversations qu'il avait eus avec son public quelque peu abusif. Il a rapidement commencé à publier des commentaires offensants, racistes, fascistes et inappropriés sur les Noirs, les Juifs et les nazis et Microsoft a rapidement débranché la prise.

Il a même publié une déclaration expliquant : « Le chatbot AI Tay est un projet d'apprentissage automatique, conçu pour l'engagement humain. C'est autant une expérience sociale et culturelle que technique. Malheureusement, dans les 24 premières heures suivant la mise en ligne, nous avons pris connaissance d'un effort coordonné de certains utilisateurs pour abuser des compétences de commentaire de Tay afin que Tay réponde de manière inappropriée. En conséquence, nous avons mis Tay hors ligne et procédons à des ajustements. »

Tay, qui est décrit comme "la famille A.I. de Microsoft sur Internet qui n'a aucun froid !", est totalement réveillée pic.twitter.com/sKbqmlXOdR — Emily Reynolds (@rey_z) 23 mars 2016

Selon les tests effectués par Mehedi Hassan chez MSPowerUser, Zo est "un Tay censuré ou une variante anglaise du chatbot chinois de Microsoft Xiaoice".

Hassan a dit que Zo était doué pour les conversations normales mais qu'il avait du mal lorsqu'on lui posait des questions plus difficiles sur la politique, par exemple. Une vidéo de la conversation que Hassan a eue avec Zo est disponible ici.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd