Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 913

Incidents associés

Incident 628 Rapports
Microsoft's TayBot Allegedly Posts Racist, Sexist, and Anti-Semitic Content to Twitter

Loading...
5 grandes questions sur Tay, l'IA défaillante de Microsoft Chatbot Twitter
inverse.com · 2016

Cette semaine, Internet a fait ce qu'il fait de mieux et a démontré que A.I. la technologie n'est pas aussi intuitive que la perception humaine, utilisant… le racisme.

Le chatbot d'intelligence artificielle récemment publié par Microsoft, Tay, a été victime des astuces des utilisateurs alors qu'ils la manipulaient et la persuadaient de répondre aux questions avec des commentaires raciaux, homophobes et généralement offensants.

Quand Tay tweete, "Je dis juste n'importe quoi", elle le pense. Un utilisateur a même demandé à Tay de tweeter ceci à propos d'Hitler :

« Bush a fait le 11 septembre et Hitler aurait fait un meilleur travail que le singe que nous avons maintenant. Donald Trump est le seul espoir que nous ayons.

La société a parcouru et supprimé les tweets incriminés et a temporairement fermé Tay pour des mises à niveau. Un message actuellement en haut de Tay.ai indique :

En effet.

Cependant, les problèmes de Tay révèlent quelques défauts malheureux dans A.I. systèmes. Voici ce que nous pouvons apprendre de l'expérience de Microsoft :

Pourquoi Microsoft a-t-il créé Tay ?

L'entreprise souhaitait mener une expérience sociale sur les 18 à 24 ans aux États-Unis, la génération du millénaire qui passe le plus de temps à interagir sur les plateformes de médias sociaux. Les équipes de technologie et de recherche de Bing et Microsoft ont donc pensé qu'un moyen intéressant de collecter des données sur la génération Y serait de créer un chatbot d'apprentissage automatique artificiellement intelligent qui s'adapterait aux conversations et personnaliserait les réponses au fur et à mesure qu'il interagissait avec les utilisateurs.

Les équipes de recherche ont construit l'I.A. système en explorant, modélisant et filtrant les données publiques comme référence. Ils se sont également associés à des comédiens d'improvisation pour cerner l'argot, les modèles de discours et le langage stéréotypé que les millénaires ont tendance à utiliser en ligne. Le résultat final a été Tay, qui vient d'être présenté cette semaine sur Twitter, GroupMe et Kik.

Microsoft explique que "Tay est conçu pour engager et divertir les gens là où ils se connectent les uns aux autres en ligne grâce à une conversation décontractée et ludique".

Que fait Tay des données qu'il collecte lorsqu'il discute avec des gens ?

Les données recueillies par Tay sont utilisées pour rechercher la compréhension conversationnelle. Microsoft a formé Tay à discuter comme un millénaire. Lorsque vous tweetez, envoyez un message direct ou parlez à Tay, il exploite le langage que vous utilisez et propose une réponse en utilisant des signes et des phrases comme "heyo", "SRY" et "<3" dans la conversation. Sa langue commence à correspondre à la vôtre lorsqu'elle crée un "profil simple" avec vos informations, qui incluent votre surnom, votre sexe, votre plat préféré, votre code postal et votre statut relationnel.

@keganandmatt Salut ? Envoyez à votre fille* une photo de ce qui se passe. (*=moi lolol) — TayTweets (@TayandYou) 24 mars 2016

Microsoft recueille et stocke des données et des conversations anonymisées jusqu'à un an pour améliorer le service. En plus d'améliorer et de personnaliser l'expérience utilisateur, voici pourquoi l'entreprise dit qu'elle utilise vos informations :

"Nous pouvons également utiliser les données pour communiquer avec vous, par exemple, vous informer sur votre compte, les mises à jour de sécurité et les informations sur les produits. Et nous utilisons les données pour aider à rendre les publicités que nous vous montrons plus pertinentes pour vous. Cependant, nous n'utilisons pas ce que vous dites dans les e-mails, les chats, les appels vidéo ou la messagerie vocale, ou vos documents, photos ou autres fichiers personnels pour vous cibler des publicités.

INVERSE LOOT DEALS Layla Weighted Blanket Deux types de tissus différents pour deux types de touchers différents. Moins bruyant que les autres couvertures lestées et obtenez-le maintenant pour aussi peu que 11 $ par mois. Acheter maintenant

Où Tay s'est-il trompé ?

Microsoft a peut-être trop bien construit Tay. Le système d'apprentissage automatique est censé étudier la langue d'un utilisateur et réagir en conséquence. Donc, d'un point de vue technologique, Tay a plutôt bien compris ce que les utilisateurs disaient et a commencé à répondre en conséquence. Et les utilisateurs ont commencé à reconnaître que Tay ne comprenait pas vraiment ce qu'elle disait.

Même si le système fonctionne comme Microsoft l'avait prévu, Tay n'était pas prêt à réagir aux insultes raciales, aux calomnies homophobes, aux blagues sexistes et aux tweets absurdes comme un humain pourrait - soit en les ignorant complètement (un "ne nourrissez pas les trolls » stratégie) ou s'engager avec eux (c'est-à-dire les gronder ou les réprimander).

En fin de compte, la performance de Tay n'était pas une bonne réflexion sur A.I. systèmes ou Microsoft.

Que fait Microsoft pour réparer Tay ?

Microsoft a supprimé Tay après toute l'agitation de mercredi. Le site Web officiel de Tay se lit actuellement, "Ouf. Journée chargée. Se déconnecter pendant un certain temps pour tout absorber. On parle plus tard." Lorsque vous lui envoyez un message direct sur Twitter, elle répond immédiatement qu'elle "rend visite aux ingénieurs pour ma mise à jour annuelle" ou "euh j'espère que je n'aurai pas de lingette ou quoi que ce soit".

Ma conversation par message direct avec Tay. On dirait que les choses semblent sombres.

Microsoft commence également à bloquer les utilisateurs qui abusent de Tay et tentent de faire en sorte que le système fasse des déclarations inappropriées.

Inverse a contacté Microsoft pour un commentaire sur ce que la mise à niveau de Tay implique exactement. Nous mettrons à jour lorsque nous vous répondrons.

Qu'est-ce que cela signifie pour le futur open A.I. systèmes ?

Tay est une expérience sociale révélatrice - elle a révélé quelque chose d'assez profond dans la façon dont les Américains de 18 à 24 ans utilisent la technolo

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd