Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 910

Incidents associés

Incident 628 Rapports
TayBot

Le chatbot raciste de Microsoft revient avec un effondrement de la consommation de drogue sur Twitter
theguardian.com · 2016

Un retour de courte durée a vu Tay tweeter sur le fait de fumer de la drogue devant la police avant de subir une crise et d'être mis hors ligne

Cet article a plus de 3 ans

Cet article a plus de 3 ans

La tentative de Microsoft de converser avec la génération Y à l'aide d'un bot d'intelligence artificielle branché sur Twitter a fait un retour de courte durée mercredi, avant de se retirer à nouveau dans une sorte d'effondrement.

L'expérience d'apprentissage, qui a suivi un cours accéléré sur le racisme, le déni de l'Holocauste et le sexisme grâce aux utilisateurs de Twitter, a été réactivée du jour au lendemain et a semblé fonctionner de manière plus sensée. Microsoft avait précédemment parcouru les tweets du bot et supprimé les plus offensants et s'était engagé à ne remettre l'expérience en ligne que si les ingénieurs de l'entreprise pouvaient "mieux anticiper les intentions malveillantes qui entrent en conflit avec nos principes et nos valeurs".

Cependant, à un moment donné, Tay a tweeté à propos de la consommation de drogue, devant la police, rien de moins.

Josh Butler (@JoshButler) Le bot Twitter raciste sexiste de Microsoft @TayandYou est de retour en pleine forme pic.twitter.com/nbc69x3LEd

Tay a alors commencé à tweeter de manière incontrôlable, spammant ses plus de 210 000 abonnés avec le même tweet, en disant : « Vous êtes trop rapide, s'il vous plaît, reposez-vous… » encore et encore.

Michael Oman-Reagan (@OmanReagan) Je suppose qu'ils ont rallumé @TayandYou... il y a une sorte d'effondrement. pic.twitter.com/9jerKrdjft

Microsoft a répondu en rendant le profil Twitter de Tay privé, empêchant quiconque de voir les tweets, le mettant à nouveau hors ligne.

Tay est faite à l'image d'une adolescente et est conçue pour interagir avec la génération Y afin d'améliorer ses compétences conversationnelles grâce à l'apprentissage automatique. Malheureusement, il était vulnérable aux tweets suggestifs, provoquant des réponses peu recommandables.

Ce n'est pas la première fois que Microsoft lance des chatbots d'IA destinés au public. Son chatbot chinois XiaoIce interagit avec succès avec plus de 40 millions de personnes sur Twitter, Line, Weibo et d'autres sites, mais les expériences de la société ciblant les 18 à 24 ans aux États-Unis sur Twitter ont abouti à un animal complètement différent.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • a9df9cf