Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 909

Incidents associés

Incident 628 Rapports
Microsoft's TayBot Allegedly Posts Racist, Sexist, and Anti-Semitic Content to Twitter

Loading...
Pourquoi le chatbot Tay de Microsoft a-t-il échoué et qu'est-ce que cela signifie pour les études sur l'intelligence artificielle ?
blog.botego.com · 2016

Pourquoi le chatbot Tay de Microsoft a-t-il échoué et qu'est-ce que cela signifie pour les études sur l'intelligence artificielle ?

Botego Inc Bloqué Débloquer Suivre Suivre 25 mars 2016

Hier, quelque chose qui ressemble à un gros échec s'est produit : le chatbot Tay de Microsoft a été mis hors ligne après une série de tweets offensants. Et voici comment les réseaux sociaux ont réagi :

Mots clés associés à "l'Intelligence Artificielle" tout au long de la journée. "Microsoft" et "dangereux" ont le vent en poupe.

Nous ne mentionnerons pas le contenu raciste et autrement offensant que Tay a appris des gens, car ce n'est pas aussi digne d'intérêt qu'il n'y paraît… Surtout si l'on considère qu'il est si facile d'"enseigner" et de lui demander de répéter quelque chose.

Jetons un coup d'œil au site officiel de Microsoft "tay.ai" pour voir comment ils décrivent les objectifs de Tay… La première chose que nous remarquons est que, Microsoft veut que vous ne le preniez pas trop au sérieux, car sur le compte Twitter de Tay, ils ont fourni un lien vers La page "à propos" de Tay - qui répertorie les questions fréquemment posées suivantes -, plutôt que la page d'accueil habituelle.

"À des fins de divertissement uniquement"

La page FAQ semble être loin de couvrir ce que les gens veulent vraiment savoir sur Tay, mais une chose est claire : Tay ne prétend pas être un bot intelligent capable de raisonner. Elle veut juste avoir une petite conversation avec les jeunes.

Et voici une liste de "Choses à faire avec Tay". (Avec le triste message "Se déconnecter pendant un certain temps" avec un fond noir.)

Est-ce vraiment ce que les 18-24 ans attendent d'un chatbot ?

Nous savons par (9 ans d'expérience) que la chose la plus importante à faire avant de lancer un chatbot est de planifier une stratégie pour s'assurer que vous communiquez correctement le domaine de contenu, afin que vous puissiez définir les bonnes attentes. Puisque la perception est tout, rien d'autre n'a d'importance. Souvenez-vous du succès du YO! application ? C'est le domaine de contenu dont nous parlons. Tant que les gens comprennent, vous pouvez vous en sortir avec un seul mot.

Le titre du site Web n'était apparemment pas suffisant pour transmettre la mission de Tay :

Tay est un chatbot d'intelligence artificielle conçu pour engager et divertir à travers une conversation décontractée et ludique

Quelques descriptions supplémentaires de la page "à propos":

Tay a été construit en explorant des données publiques pertinentes et en utilisant l'IA et l'éditorial développé par une équipe comprenant des comédiens d'improvisation. Les données publiques rendues anonymes sont la principale source de données de Tay. Ces données ont été modélisées, nettoyées et filtrées par l'équipe de développement de Tay.

Vous avez remarqué la partie "humoristes" ? Et le fait que des téraoctets de données soient éventuellement nettoyés et filtrés manuellement semble problématique, même avec la méthode la plus efficace que l'on puisse imaginer.

Voyons en quoi consistaient ses conversations. Source : foller.me

Tay n'a que 3 tweets s'adressant à tous ses abonnés. 96 000 tweets sont des mentions.

Ainsi, le nuage de mots-clés semble être cohérent avec l'objectif : des mots-clés communs tels que "chattin, pix, selfie, pics, omg, love" représentent un mélange de profils Justin Bieber et Kim Kardashian.

Et voici les trois hashtags que Tay utilise si fréquemment :

Les ingénieurs de Microsoft ne semblent pas avoir passé beaucoup de temps à créer des hashtags créatifs.

La façon dont elle les utilise n'avait cependant aucun sens pour nous. C'est donc ce que Microsoft pense que les abonnés de Tay trouveraient amusant?

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd