Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 911

Incidents associés

Incident 628 Rapports
Microsoft's TayBot Allegedly Posts Racist, Sexist, and Anti-Semitic Content to Twitter

Loading...
Microsoft « profondément désolé » pour les tweets racistes et sexistes du chatbot AI
theguardian.com · 2016

Microsoft a déclaré qu'il était "profondément désolé" pour les messages Twitter racistes et sexistes générés par le soi-disant chatbot qu'il a lancé cette semaine.

La société a publié des excuses officielles après que le programme d'intelligence artificielle se soit lancé dans une tirade embarrassante, comparant le féminisme au cancer et suggérant que l'Holocauste n'a pas eu lieu.

Tay, le chatbot IA de Microsoft, suit un cours accéléré sur le racisme de Twitter En savoir plus

Le bot, connu sous le nom de Tay, a été conçu pour devenir "plus intelligent" à mesure que de plus en plus d'utilisateurs interagissent avec lui. Au lieu de cela, il a rapidement appris à perroquet une série d'invectives antisémites et autres haineuses que les utilisateurs humains de Twitter ont alimenté le programme, forçant Microsoft Corp à le fermer jeudi.

À la suite de l'expérience désastreuse, Microsoft n'a initialement fait qu'une déclaration laconique, affirmant que Tay était une "machine à apprendre" et que "certaines de ses réponses sont inappropriées et indicatives des types d'interactions que certaines personnes ont avec elle".

Mais la société a admis vendredi que l'expérience avait mal tourné. Il a déclaré dans un article de blog qu'il ne relancerait Tay que si ses ingénieurs pouvaient trouver un moyen d'empêcher les internautes d'influencer le chatbot d'une manière qui sape les principes et les valeurs de l'entreprise.

"Nous sommes profondément désolés pour les tweets offensants et blessants involontaires de Tay, qui ne représentent pas qui nous sommes ou ce que nous représentons, ni comment nous avons conçu Tay", a écrit Peter Lee, vice-président de la recherche chez Microsoft.

Microsoft a créé Tay comme expérience pour en savoir plus sur la façon dont les programmes d'intelligence artificielle peuvent interagir avec les utilisateurs Web dans une conversation informelle. Le projet a été conçu pour interagir et « apprendre » de la jeune génération de la génération Y.

Tay a commencé son mandat de courte durée sur Twitter mercredi avec une poignée de tweets anodins.

TayTweets (@TayandYou) c u bientôt les humains ont besoin de sommeil maintenant tant de conversations aujourd'hui thx💖

Puis ses postes ont pris une tournure sombre.

Dans un exemple typique, Tay a tweeté : "le féminisme est un cancer", en réponse à un autre utilisateur de Twitter qui avait posté le même message.

Facebook Twitter Pinterest Tay tweetant Photographie : Twitter/Microsoft

Lee, dans le billet de blog, a qualifié les efforts des internautes pour exercer une influence malveillante sur le chatbot "d'attaque coordonnée par un sous-ensemble de personnes".

"Bien que nous nous soyons préparés à de nombreux types d'abus du système, nous avions fait une surveillance critique pour cette attaque spécifique", a écrit Lee. "En conséquence, Tay a tweeté des mots et des images extrêmement inappropriés et répréhensibles."

Microsoft a supprimé tous les tweets de Tay sauf trois.

Microsoft a connu un meilleur succès avec un chatbot appelé XiaoIce que la société a lancé en Chine en 2014. XiaoIce est utilisé par environ 40 millions de personnes et est connu pour «se régaler de ses histoires et de ses conversations», selon Microsoft.

Quant à Tay ? Pas tellement.

"Nous resterons fermes dans nos efforts pour apprendre de cette expérience et d'autres alors que nous nous efforçons de contribuer à un Internet qui représente le meilleur, et non le pire, de l'humanité", a écrit Lee.

Reuters a contribué à ce rapport

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd