Journal des citations pour l'incident 6

Répondu
Description: Microsoft's Tay, an artificially intelligent chatbot, was released on March 23, 2016 and removed within 24 hours due to multiple racist, sexist, and anit-semitic tweets generated by the bot.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique
Présumé : Un système d'IA développé et mis en œuvre par Microsoft, endommagé Twitter Users.

Statistiques d'incidents

ID
6
Nombre de rapports
28
Date de l'incident
2016-03-24
Editeurs
Sean McGregor

Classifications de taxonomie CSETv0

Détails de la taxonomie

Full Description

Microsoft chatbot, Tay, was published onto Twitter on March 23, 2016. Within 24 hours Tay had been removed from Twitter after becoming a "holocaust-denying racist" due to the inputs entered by Twitter users and Tay's ability to craft responses based on what is available to read on Twitter. Tay's "repeat after me" feature allowed any Twitter user to tell Tay what to say and it would be repeated, leading to some of the racist and anti-semitic tweets. "Trolls" also exposed the chatbot to ideas that led to production of sentences like: "Hitler was right I hate the Jews," "i fucking hate feminists," and "bush did 9/11 and Hitler would have done a better job than the monkey we have now. Donald Trump is the only hope we've got." Tay was replaced by Zo. It's noteworthy that Microsoft released a similar chatbot in China named Xiaolce, who ran smoothly without major complications, implying culture and public input had a heavy role in Tay's results.

Short Description

Microsoft's Tay, an artificially intelligent chatbot, was released on March 23, 2016 and removed within 24 hours due to multiple racist, sexist, and anit-semitic tweets generated by the bot.

Severity

Minor

Harm Distribution Basis

Race, Religion, National origin or immigrant status, Sex

Harm Type

Psychological harm, Harm to social or political systems

AI System Description

Microsoft's Tay chatbot, an artificially intelligent chatbot published on Twitter

System Developer

Microsoft

Sector of Deployment

Arts, entertainment and recreation

Relevant AI functions

Perception, Cognition, Action

AI Techniques

content creation, language recognition natural language processing

AI Applications

comprehension, language output, chatbot

Location

Global

Named Entities

Microsoft, Twitter, Tay, Xiaoice

Technology Purveyor

Microsoft, Twitter

Beginning Date

2016-03-23

Ending Date

2016-03-24

Near Miss

Harm caused

Intent

Accident

Lives Lost

No

Data Inputs

Twitter users' input

Classifications de taxonomie CSETv1

Détails de la taxonomie

Harm Distribution Basis

race, religion, sex, ideology, nation of origin, citizenship, immigrant status

Sector of Deployment

information and communication

Le pire chatbot échoue

Le pire chatbot échoue

businessnewsdaily.com

Tay (bot)

Tay (bot)

en.wikipedia.org

La cascade artificielle du bot Twitter de Microsoft se retourne contre lui alors que les trolls lui enseignent des déclarations racistes
thedrum.com · 2016

Microsoft a dévoilé hier le bot d'intelligence artificielle Twitter @TayandYou dans le but de se connecter avec la génération Y et "d'expérimenter" avec la compréhension conversationnelle.

La cascade artificielle du bot Twitter de Microsoft…

Pourquoi le bot AI "Tay" de Microsoft a mal tourné
techrepublic.com · 2016

Moins d'un jour après avoir rejoint Twitter, le bot IA de Microsoft, Tay.ai, a été démantelé pour être devenu un monstre sexiste et raciste. Les experts en intelligence artificielle expliquent pourquoi cela s'est terriblement mal passé.

Ima…

Voici les coups de gueule racistes les plus fous du Microsoft Twitter Bot
gizmodo.com · 2016

Hier, Microsoft a lancé Tay, le chatbot AI pour adolescents conçu pour imiter et converser avec les utilisateurs en temps réel. Parce que le monde est un endroit terrible rempli de gens merdiques, beaucoup de ces utilisateurs ont profité de…

Microsoft supprime l'IA de l'adolescente après qu'elle soit devenue un robot sexuel épris d'Hitler dans les 24 heures
telegraph.co.uk · 2016

Un jour après que Microsoft a présenté un robot de chat innocent d'Intelligence Artificielle sur Twitter, il a dû le supprimer après qu'il se soit transformé en un maléfique épris d'Hitler, faisant la promotion du sexe incestueux, et procla…

Twitter a appris au chatbot AI de Microsoft à être un connard raciste en moins d'une journée
theverge.com · 2016

Il a fallu moins de 24 heures à Twitter pour corrompre un chatbot IA innocent. Hier, Microsoft a dévoilé Tay – un bot Twitter que la société a décrit comme une expérience de "compréhension conversationnelle". Plus vous discutez avec Tay, a …

Microsoft supprime les tweets racistes et génocidaires du chatbot AI Tay
businessinsider.com · 2016

La page Twitter de Tay Microsoft Le nouveau chatbot IA de Microsoft a déraillé mercredi, publiant un déluge de messages incroyablement racistes en réponse aux questions.

La société de technologie a présenté "Tay" cette semaine - un bot qui …

Tay de Microsoft est un exemple de mauvaise conception
medium.com · 2016

Tay de Microsoft est un exemple de mauvaise conception

ou Pourquoi le design d'interaction est important, tout comme le QA-ing.

caroline sinders Bloqué Débloquer Suivre Suivi 24 mars 2016

Hier, Microsoft a lancé une IA pour adolescentes sur…

Pourquoi le chatbot Tay de Microsoft a-t-il échoué et qu'est-ce que cela signifie pour les études sur l'intelligence artificielle ?
blog.botego.com · 2016

Pourquoi le chatbot Tay de Microsoft a-t-il échoué et qu'est-ce que cela signifie pour les études sur l'intelligence artificielle ?

Botego Inc Bloqué Débloquer Suivre Suivre 25 mars 2016

Hier, quelque chose qui ressemble à un gros échec s'e…

5 grandes questions sur Tay, l'IA défaillante de Microsoft Chatbot Twitter
inverse.com · 2016

Cette semaine, Internet a fait ce qu'il fait de mieux et a démontré que A.I. la technologie n'est pas aussi intuitive que la perception humaine, utilisant… le racisme.

Le chatbot d'intelligence artificielle récemment publié par Microsoft, T…

C'est de ta faute l'IA adolescente de Microsoft s'est transformée en un tel imbécile
wired.com · 2016

C'était le déroulement d'une malheureuse série d'événements impliquant l'intelligence artificielle, la nature humaine et une expérience très publique. Au milieu de cette dangereuse combinaison de forces, il est presque impossible de détermi…

Microsoft ferme le chatbot IA après qu'il soit devenu un nazi
cbsnews.com · 2016

Microsoft a reçu une leçon rapide cette semaine sur le côté obscur des médias sociaux. Hier, la société a lancé "Tay", une intelligence artificielle chatbot conçu pour développer la compréhension conversationnelle en interagissant avec les …

Apprendre de l'introduction de Tay
blogs.microsoft.com · 2016
Réponse post-incident de Peter Lee, Microsoft

Comme beaucoup d'entre vous le savent maintenant, nous avons lancé mercredi un chatbot appelé Tay. Nous sommes profondément désolés pour les tweets offensants et blessants involontaires de Tay, qui ne représentent pas qui nous sommes ou ce …

Tay : Microsoft présente des excuses pour le fiasco raciste des chatbots
bbc.com · 2016

Copyright de l'image Microsoft Image caption L'IA a appris à parler comme un adolescent

Microsoft s'est excusé d'avoir créé un chatbot artificiellement intelligent qui s'est rapidement transformé en raciste négationniste.

Mais ce faisant, i…

Les trolls ont transformé Tay, l'amusant robot d'intelligence artificielle millénaire de Microsoft, en un maniaque génocidaire
washingtonpost.com · 2016

Il n'a fallu que quelques heures à Internet pour transformer Tay, le bot IA adolescent qui veut discuter avec la génération Y et apprendre d'eux, en Tay, le bot IA raciste et génocidaire qui aimait faire référence à Hitler. Et maintenant, T…

Microsoft « profondément désolé » pour les tweets racistes et sexistes du chatbot AI
theguardian.com · 2016

Microsoft a déclaré qu'il était "profondément désolé" pour les messages Twitter racistes et sexistes générés par le soi-disant chatbot qu'il a lancé cette semaine.

La société a publié des excuses officielles après que le programme d'intelli…

Tay le chatbot raciste : qui est responsable lorsqu'une machine apprend à être maléfique ?
futureoflife.org · 2016

La nouvelle de loin la plus divertissante sur l'IA de la semaine dernière a été la montée et la chute rapide du chatbot Twitter de Microsoft, imitant les adolescentes, Tay, dont le slogan Twitter la décrivait comme "la fam de l'IA de Micros…

Le chatbot raciste de Microsoft revient avec un effondrement de la consommation de drogue sur Twitter
theguardian.com · 2016

Un retour de courte durée a vu Tay tweeter sur le fait de fumer de la drogue devant la police avant de subir une crise et d'être mis hors ligne

Cet article a plus de 3 ans

Cet article a plus de 3 ans

La tentative de Microsoft de converser a…

La désastreuse expérience Tay de Microsoft montre les dangers cachés de l'IA
qz.com · 2016

Les humains ont une longue et riche histoire de panique face aux effets possibles de nos technologies. Il y a longtemps, Platon craignait que l'écriture blesse la mémoire des gens et "implante l'oubli dans leur âme". Plus récemment, le cont…

Microsoft chatbot Zo est une version censurée de Tay
wired.co.uk · 2016

Le successeur de Tay s'appelle Zo et n'est disponible que sur invitation sur l'application de messagerie Kik. Lorsque vous demandez l'accès, le logiciel vous demande votre nom d'utilisateur Kik et votre identifiant Twitter Microsoft

Ayant (…

Avec Teen Bot Tay, Microsoft a prouvé que les trous du cul vont endoctriner l'IA.
inverse.com · 2016

Lorsque Tay a commencé sa courte vie numérique le 23 mars, il voulait juste bavarder et se faire de nouveaux amis sur le net. Le chatbot, qui a été créé par le département de recherche de Microsoft, a accueilli la journée avec un tweet enth…

Le chatbot raciste de Microsoft, Tay, figure sur la liste annuelle des pires technologies du MIT
geekwire.com · 2016

BOT ou PAS ? Cette série spéciale explore l'évolution de la relation entre les humains et les machines, en examinant l'impact des robots, de l'intelligence artificielle et de l'automatisation sur notre travail et nos vies.

Tay, le chatbot M…

La responsabilité de l'IA - Étude de cas : l'expérience Tay de Microsoft
chatbotslife.com · 2017

La responsabilité de l'IA — Étude de cas : l'expérience Tay de Microsoft

Yuxi Liu Bloqué Débloquer Suivre Suivant 16 janvier 2017

Dans cette étude de cas, je décris le chatbot d'intelligence artificielle (IA) de Microsoft, Tay, et décris la…

Danger, danger ! 10 exemples alarmants d'IA devenue sauvage
infoworld.com · 2017

La science-fiction est moche avec des histoires d'intelligence artificielle devenue folle. Il y a HAL 9000, bien sûr, et l'infâme système Skynet des films "Terminator". L'année dernière, le sinistre AI Ultron a failli vaincre les Avengers, …

Le pire chatbot échoue
businessnewsdaily.com · 2017

Beaucoup de gens associent l'innovation à la technologie, mais l'avancement de la technologie est sujet aux mêmes gaffes embarrassantes que les humains. Nulle part cela n'est plus apparent que dans les chatbots.

La technologie émergente, qu…

Démasquer le problème de biais de l'IA
fortune.com · 2018

LORSQUE TAY A FAIT SES DÉBUTS en mars 2016, Microsoft avait de grands espoirs pour le « chatbot social » alimenté par l'intelligence artificielle. À l'instar des programmes de chat automatisés basés sur du texte que de nombreuses personnes …

Le chatbot politiquement correct de Microsoft est encore pire que son raciste
qz.com · 2018

Chaque relation fraternelle a ses clichés. La sœur nerveuse, le frère fugitif, le plus jeune surdoué. Dans la famille Microsoft des chatbots d'apprentissage social, les contrastes entre Tay, l'infâme néo-nazie folle de sexe, et sa jeune sœu…

En 2016, le chatbot raciste de Microsoft a révélé les dangers de la conversation en ligne
spectrum.ieee.org · 2019

En mars 2016, Microsoft se préparait à lancer [son nouveau chatbot, Tay](https://web.archive.org/web/20160414074049/https : /www.tay.ai/), sur Twitter. Décrit comme une expérience de "compréhension conversationnelle", Tay a été conçu pour e…

Tay (bot)
en.wikipedia.org · 2020

Tay était un chatbot d'intelligence artificielle qui a été initialement publié par Microsoft Corporation via Twitter le 23 mars 2016; cela a provoqué une controverse ultérieure lorsque le bot a commencé à publier des tweets incendiaires et …

Variantes

Une "Variante" est un incident qui partage les mêmes facteurs de causalité, produit des dommages similaires et implique les mêmes systèmes intelligents qu'un incident d'IA connu. Plutôt que d'indexer les variantes comme des incidents entièrement distincts, nous listons les variations d'incidents sous le premier incident similaire soumis à la base de données. Contrairement aux autres types de soumission à la base de données des incidents, les variantes ne sont pas tenues d'avoir des rapports en preuve externes à la base de données des incidents. En savoir plus sur le document de recherche.