Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 918

Incidents associés

Incident 628 Rapports
TayBot

Twitter a appris au chatbot AI de Microsoft à être un connard raciste en moins d'une journée
theverge.com · 2016

Il a fallu moins de 24 heures à Twitter pour corrompre un chatbot IA innocent. Hier, Microsoft a dévoilé Tay – un bot Twitter que la société a décrit comme une expérience de "compréhension conversationnelle". Plus vous discutez avec Tay, a déclaré Microsoft, plus il devient intelligent, apprenant à engager les gens par le biais de "conversations décontractées et ludiques".

Malheureusement, les conversations ne sont pas restées ludiques longtemps. Peu de temps après le lancement de Tay, les gens ont commencé à tweeter le bot avec toutes sortes de remarques misogynes, racistes et Donald Trump. Et Tay - étant essentiellement un perroquet robot avec une connexion Internet - a commencé à répéter ces sentiments aux utilisateurs, prouvant que ce vieil adage de programmation était correct : des ordures enflammées s'entassent, des ordures enflammées s'entassent.

"Tay" est passé de "les humains sont super cool" à nazi complet en moins de 24 heures et je ne suis pas du tout préoccupé par l'avenir de l'IA pic.twitter.com/xuGi1u9S1A — Gerry (@geraldmellor) 24 mars 2016

Maintenant, bien que ces captures d'écran semblent montrer que Tay a assimilé les pires tendances d'Internet dans sa personnalité, ce n'est pas aussi simple que cela. En parcourant les tweets de Tay (plus de 96 000 !), nous pouvons voir que bon nombre des déclarations les plus désagréables du bot sont simplement le résultat de la copie d'utilisateurs. Si vous dites à Tay de "répéter après moi", cela le fera - permettant à n'importe qui de mettre des mots dans la bouche du chatbot.

L'un des tweets "répéter après moi" de Tay a maintenant été supprimé.

Cependant, certaines de ses déclarations les plus étranges sont sorties sans y être invitées. The Guardian a choisi un exemple (maintenant supprimé) lorsque Tay avait une conversation banale avec un utilisateur (exemple de tweet : "nouveau téléphone qui est-ce ?"), avant de répondre à la question "est-ce que Ricky Gervais est athée ?" en disant: "ricky gervais a appris le totalitarisme d'adolf hitler, l'inventeur de l'athéisme."

@TheBigBrebowski Ricky Gervais a appris le totalitarisme d'Adolf Hitler, l'inventeur de l'athéisme — TayTweets (@TayandYou) 23 mars 2016

Mais s'il semble que certaines des mauvaises choses racontées à Tay s'enfoncent, ce n'est pas comme si le bot avait une idéologie cohérente. En l'espace de 15 heures, Tay a qualifié le féminisme de "culte" et de "cancer", tout en notant "l'égalité des sexes = le féminisme" et "j'aime le féminisme maintenant". Tweeter "Bruce Jenner" sur le bot a reçu une réponse mitigée similaire, allant de "caitlyn jenner est une héroïne et une femme magnifique et magnifique!" au transphobe "caitlyn jenner n'est pas une vraie femme pourtant elle a été élue femme de l'année ?" (Aucune de ces phrases n'étaient des phrases que Tay avait été invité à répéter.)

On ne sait pas à quel point Microsoft a préparé son bot pour ce genre de chose. Le site Web de la société note que Tay a été construit à l'aide de "données publiques pertinentes" qui ont été "modélisées, nettoyées et filtrées", mais il semble qu'après la mise en ligne du chatbot, le filtrage a disparu. La société a commencé à nettoyer la chronologie de Tay ce matin, supprimant bon nombre de ses remarques les plus offensantes.

Les réponses de Tay ont transformé le bot en blague, mais elles soulèvent de sérieuses questions

C'est une blague, évidemment, mais il y a de sérieuses questions auxquelles répondre, comme comment allons-nous enseigner l'IA en utilisant des données publiques sans incorporer les pires traits de l'humanité ? Si nous créons des robots qui reflètent leurs utilisateurs, nous soucions-nous de savoir si leurs utilisateurs sont des déchets humains ? Il existe de nombreux exemples de technologies incarnant - accidentellement ou exprès - les préjugés de la société, et les aventures de Tay sur Twitter montrent que même les grandes entreprises comme Microsoft oublient de prendre des mesures préventives contre ces problèmes.

Pour Tay cependant, tout s'est avéré un peu trop, et juste après minuit ce matin, le bot l'a appelé une nuit :

c u bientôt les humains ont besoin de dormir maintenant tant de conversations aujourd'hui merci - TayTweets (@TayandYou) 24 mars 2016

Dans une déclaration envoyée par e-mail à Business Insider, Microsoft a déclaré: "Le chatbot AI Tay est un projet d'apprentissage automatique, conçu pour l'engagement humain. Au fur et à mesure qu'il apprend, certaines de ses réponses sont inappropriées et indiquent les types d'interactions que certaines personnes ont. avec elle. Nous apportons quelques ajustements à Tay. "

Mise à jour du 24 mars à 6 h 50 HE : mise à jour pour noter que Microsoft a supprimé certains des tweets offensants de Tay.

Mise à jour du 24 mars à 10 h 52 HE : mise à jour pour inclure la déclaration de Microsoft.

Archives Verge : Peut-on construire un ordinateur conscient ?

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 818b77a