Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Incident 6: TayBot

Répondu
Description: Microsoft's Tay, an artificially intelligent chatbot, was released on March 23, 2016 and removed within 24 hours due to multiple racist, sexist, and anit-semitic tweets generated by the bot.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique

Entités

Voir toutes les entités
Présumé : Un système d'IA développé et mis en œuvre par Microsoft, a endommagé Twitter Users.

Statistiques d'incidents

ID
6
Nombre de rapports
28
Date de l'incident
2016-03-24
Editeurs
Sean McGregor
Applied Taxonomies
CSETv0, CSETv1, GMF, MIT

Classifications de taxonomie CSETv0

Détails de la taxonomie

Problem Nature

Indicates which, if any, of the following types of AI failure describe the incident: "Specification," i.e. the system's behavior did not align with the true intentions of its designer, operator, etc; "Robustness," i.e. the system operated unsafely because of features or changes in its environment, or in the inputs the system received; "Assurance," i.e. the system could not be adequately monitored or controlled during operation.
 

Specification, Robustness, Assurance

Physical System

Where relevant, indicates whether the AI system(s) was embedded into or tightly associated with specific types of hardware.
 

Software only

Level of Autonomy

The degree to which the AI system(s) functions independently from human intervention. "High" means there is no human involved in the system action execution; "Medium" means the system generates a decision and a human oversees the resulting action; "low" means the system generates decision-support output and a human makes a decision and executes an action.
 

Medium

Nature of End User

"Expert" if users with special training or technical expertise were the ones meant to benefit from the AI system(s)’ operation; "Amateur" if the AI systems were primarily meant to benefit the general public or untrained users.
 

Amateur

Public Sector Deployment

"Yes" if the AI system(s) involved in the accident were being used by the public sector or for the administration of public goods (for example, public transportation). "No" if the system(s) were being used in the private sector or for commercial purposes (for example, a ride-sharing company), on the other.
 

No

Data Inputs

A brief description of the data that the AI system(s) used or were trained on.
 

Twitter users' input

Classifications de taxonomie CSETv1

Détails de la taxonomie

Incident Number

The number of the incident in the AI Incident Database.
 

6

Notes (special interest intangible harm)

Input any notes that may help explain your answers.
 

4.6 - Tay's tweets included racist and misogynist content, far-right ideology, and harmful content against certain religions, etc.

Special Interest Intangible Harm

An assessment of whether a special interest intangible harm occurred. This assessment does not consider the context of the intangible harm, if an AI was involved, or if there is characterizable class or subgroup of harmed entities. It is also not assessing if an intangible harm occurred. It is only asking if a special interest intangible harm occurred.
 

yes

Date of Incident Year

The year in which the incident occurred. If there are multiple harms or occurrences of the incident, list the earliest. If a precise date is unavailable, but the available sources provide a basis for estimating the year, estimate. Otherwise, leave blank. Enter in the format of YYYY
 

2016

Date of Incident Month

The month in which the incident occurred. If there are multiple harms or occurrences of the incident, list the earliest. If a precise date is unavailable, but the available sources provide a basis for estimating the month, estimate. Otherwise, leave blank. Enter in the format of MM
 

03

Date of Incident Day

The day on which the incident occurred. If a precise date is unavailable, leave blank. Enter in the format of DD
 

23

Classifications de taxonomie MIT

Machine-Classified
Détails de la taxonomie

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

1.2. Exposure to toxic content

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. Discrimination and Toxicity

Entity

Which, if any, entity is presented as the main cause of the risk
 

AI

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Unintentional

Rapports d'incidents

Chronologie du rapport

+18
La cascade artificielle du bot Twitter de Microsoft se retourne contre lui alors que les trolls lui enseignent des déclarations racistes
+3
Microsoft chatbot Zo est une version censurée de Tay
Danger, danger ! 10 exemples alarmants d'IA devenue sauvageLe pire chatbot échoueDémasquer le problème de biais de l'IALe chatbot politiquement correct de Microsoft est encore pire que son racisteEn 2016, le chatbot raciste de Microsoft a révélé les dangers de la conversation en ligneTay (bot)
La cascade artificielle du bot Twitter de Microsoft se retourne contre lui alors que les trolls lui enseignent des déclarations racistes

La cascade artificielle du bot Twitter de Microsoft se retourne contre lui alors que les trolls lui enseignent des déclarations racistes

thedrum.com

Pourquoi le bot AI "Tay" de Microsoft a mal tourné

Pourquoi le bot AI "Tay" de Microsoft a mal tourné

techrepublic.com

Voici les coups de gueule racistes les plus fous du Microsoft Twitter Bot

Voici les coups de gueule racistes les plus fous du Microsoft Twitter Bot

gizmodo.com

Microsoft supprime l'IA de l'adolescente après qu'elle soit devenue un robot sexuel épris d'Hitler dans les 24 heures

Microsoft supprime l'IA de l'adolescente après qu'elle soit devenue un robot sexuel épris d'Hitler dans les 24 heures

telegraph.co.uk

Twitter a appris au chatbot AI de Microsoft à être un connard raciste en moins d'une journée

Twitter a appris au chatbot AI de Microsoft à être un connard raciste en moins d'une journée

theverge.com

Microsoft supprime les tweets racistes et génocidaires du chatbot AI Tay

Microsoft supprime les tweets racistes et génocidaires du chatbot AI Tay

businessinsider.com

Tay de Microsoft est un exemple de mauvaise conception

Tay de Microsoft est un exemple de mauvaise conception

medium.com

Pourquoi le chatbot Tay de Microsoft a-t-il échoué et qu'est-ce que cela signifie pour les études sur l'intelligence artificielle ?

Pourquoi le chatbot Tay de Microsoft a-t-il échoué et qu'est-ce que cela signifie pour les études sur l'intelligence artificielle ?

blog.botego.com

5 grandes questions sur Tay, l'IA défaillante de Microsoft Chatbot Twitter

5 grandes questions sur Tay, l'IA défaillante de Microsoft Chatbot Twitter

inverse.com

C'est de ta faute l'IA adolescente de Microsoft s'est transformée en un tel imbécile

C'est de ta faute l'IA adolescente de Microsoft s'est transformée en un tel imbécile

wired.com

Microsoft ferme le chatbot IA après qu'il soit devenu un nazi

Microsoft ferme le chatbot IA après qu'il soit devenu un nazi

cbsnews.com

Apprendre de l'introduction de Tay

Apprendre de l'introduction de Tay

blogs.microsoft.com

Tay : Microsoft présente des excuses pour le fiasco raciste des chatbots

Tay : Microsoft présente des excuses pour le fiasco raciste des chatbots

bbc.com

Les trolls ont transformé Tay, l'amusant robot d'intelligence artificielle millénaire de Microsoft, en un maniaque génocidaire

Les trolls ont transformé Tay, l'amusant robot d'intelligence artificielle millénaire de Microsoft, en un maniaque génocidaire

washingtonpost.com

Microsoft « profondément désolé » pour les tweets racistes et sexistes du chatbot AI

Microsoft « profondément désolé » pour les tweets racistes et sexistes du chatbot AI

theguardian.com

Tay le chatbot raciste : qui est responsable lorsqu'une machine apprend à être maléfique ?

Tay le chatbot raciste : qui est responsable lorsqu'une machine apprend à être maléfique ?

futureoflife.org

Le chatbot raciste de Microsoft revient avec un effondrement de la consommation de drogue sur Twitter

Le chatbot raciste de Microsoft revient avec un effondrement de la consommation de drogue sur Twitter

theguardian.com

La désastreuse expérience Tay de Microsoft montre les dangers cachés de l'IA

La désastreuse expérience Tay de Microsoft montre les dangers cachés de l'IA

qz.com

Microsoft chatbot Zo est une version censurée de Tay

Microsoft chatbot Zo est une version censurée de Tay

wired.co.uk

Avec Teen Bot Tay, Microsoft a prouvé que les trous du cul vont endoctriner l'IA.

Avec Teen Bot Tay, Microsoft a prouvé que les trous du cul vont endoctriner l'IA.

inverse.com

Le chatbot raciste de Microsoft, Tay, figure sur la liste annuelle des pires technologies du MIT

Le chatbot raciste de Microsoft, Tay, figure sur la liste annuelle des pires technologies du MIT

geekwire.com

La responsabilité de l'IA - Étude de cas : l'expérience Tay de Microsoft

La responsabilité de l'IA - Étude de cas : l'expérience Tay de Microsoft

chatbotslife.com

Danger, danger ! 10 exemples alarmants d'IA devenue sauvage

Danger, danger ! 10 exemples alarmants d'IA devenue sauvage

infoworld.com

Le pire chatbot échoue

Le pire chatbot échoue

businessnewsdaily.com

Démasquer le problème de biais de l'IA

Démasquer le problème de biais de l'IA

fortune.com

Le chatbot politiquement correct de Microsoft est encore pire que son raciste

Le chatbot politiquement correct de Microsoft est encore pire que son raciste

qz.com

En 2016, le chatbot raciste de Microsoft a révélé les dangers de la conversation en ligne

En 2016, le chatbot raciste de Microsoft a révélé les dangers de la conversation en ligne

spectrum.ieee.org

Tay (bot)

Tay (bot)

en.wikipedia.org

La cascade artificielle du bot Twitter de Microsoft se retourne contre lui alors que les trolls lui enseignent des déclarations racistes
thedrum.com · 2016
Traduit par IA

Microsoft a dévoilé hier le bot d'intelligence artificielle Twitter @TayandYou dans le but de se connecter avec la génération Y et "d'expérimenter" avec la compréhension conversationnelle.

La cascade artificielle du bot Twitter de Microsoft…

Pourquoi le bot AI "Tay" de Microsoft a mal tourné
techrepublic.com · 2016
Traduit par IA

Moins d'un jour après avoir rejoint Twitter, le bot IA de Microsoft, Tay.ai, a été démantelé pour être devenu un monstre sexiste et raciste. Les experts en intelligence artificielle expliquent pourquoi cela s'est terriblement mal passé.

Ima…

Voici les coups de gueule racistes les plus fous du Microsoft Twitter Bot
gizmodo.com · 2016
Traduit par IA

Hier, Microsoft a lancé Tay, le chatbot AI pour adolescents conçu pour imiter et converser avec les utilisateurs en temps réel. Parce que le monde est un endroit terrible rempli de gens merdiques, beaucoup de ces utilisateurs ont profité de…

Microsoft supprime l'IA de l'adolescente après qu'elle soit devenue un robot sexuel épris d'Hitler dans les 24 heures
telegraph.co.uk · 2016
Traduit par IA

Un jour après que Microsoft a présenté un robot de chat innocent d'Intelligence Artificielle sur Twitter, il a dû le supprimer après qu'il se soit transformé en un maléfique épris d'Hitler, faisant la promotion du sexe incestueux, et procla…

Twitter a appris au chatbot AI de Microsoft à être un connard raciste en moins d'une journée
theverge.com · 2016
Traduit par IA

Il a fallu moins de 24 heures à Twitter pour corrompre un chatbot IA innocent. Hier, Microsoft a dévoilé Tay – un bot Twitter que la société a décrit comme une expérience de "compréhension conversationnelle". Plus vous discutez avec Tay, a …

Microsoft supprime les tweets racistes et génocidaires du chatbot AI Tay
businessinsider.com · 2016
Traduit par IA

La page Twitter de Tay Microsoft Le nouveau chatbot IA de Microsoft a déraillé mercredi, publiant un déluge de messages incroyablement racistes en réponse aux questions.

La société de technologie a présenté "Tay" cette semaine - un bot qui …

Tay de Microsoft est un exemple de mauvaise conception
medium.com · 2016
Traduit par IA

Tay de Microsoft est un exemple de mauvaise conception

ou Pourquoi le design d'interaction est important, tout comme le QA-ing.

caroline sinders Bloqué Débloquer Suivre Suivi 24 mars 2016

Hier, Microsoft a lancé une IA pour adolescentes sur…

Pourquoi le chatbot Tay de Microsoft a-t-il échoué et qu'est-ce que cela signifie pour les études sur l'intelligence artificielle ?
blog.botego.com · 2016
Traduit par IA

Pourquoi le chatbot Tay de Microsoft a-t-il échoué et qu'est-ce que cela signifie pour les études sur l'intelligence artificielle ?

Botego Inc Bloqué Débloquer Suivre Suivre 25 mars 2016

Hier, quelque chose qui ressemble à un gros échec s'e…

5 grandes questions sur Tay, l'IA défaillante de Microsoft Chatbot Twitter
inverse.com · 2016
Traduit par IA

Cette semaine, Internet a fait ce qu'il fait de mieux et a démontré que A.I. la technologie n'est pas aussi intuitive que la perception humaine, utilisant… le racisme.

Le chatbot d'intelligence artificielle récemment publié par Microsoft, T…

C'est de ta faute l'IA adolescente de Microsoft s'est transformée en un tel imbécile
wired.com · 2016
Traduit par IA

C'était le déroulement d'une malheureuse série d'événements impliquant l'intelligence artificielle, la nature humaine et une expérience très publique. Au milieu de cette dangereuse combinaison de forces, il est presque impossible de détermi…

Microsoft ferme le chatbot IA après qu'il soit devenu un nazi
cbsnews.com · 2016
Traduit par IA

Microsoft a reçu une leçon rapide cette semaine sur le côté obscur des médias sociaux. Hier, la société a lancé "Tay", une intelligence artificielle chatbot conçu pour développer la compréhension conversationnelle en interagissant avec les …

Apprendre de l'introduction de Tay
blogs.microsoft.com · 2016
Traduit par IA
Réponse post-incident de Peter Lee, Microsoft

Comme beaucoup d'entre vous le savent maintenant, nous avons lancé mercredi un chatbot appelé Tay. Nous sommes profondément désolés pour les tweets offensants et blessants involontaires de Tay, qui ne représentent pas qui nous sommes ou ce …

Tay : Microsoft présente des excuses pour le fiasco raciste des chatbots
bbc.com · 2016
Traduit par IA

Copyright de l'image Microsoft Image caption L'IA a appris à parler comme un adolescent

Microsoft s'est excusé d'avoir créé un chatbot artificiellement intelligent qui s'est rapidement transformé en raciste négationniste.

Mais ce faisant, i…

Les trolls ont transformé Tay, l'amusant robot d'intelligence artificielle millénaire de Microsoft, en un maniaque génocidaire
washingtonpost.com · 2016
Traduit par IA

Il n'a fallu que quelques heures à Internet pour transformer Tay, le bot IA adolescent qui veut discuter avec la génération Y et apprendre d'eux, en Tay, le bot IA raciste et génocidaire qui aimait faire référence à Hitler. Et maintenant, T…

Microsoft « profondément désolé » pour les tweets racistes et sexistes du chatbot AI
theguardian.com · 2016
Traduit par IA

Microsoft a déclaré qu'il était "profondément désolé" pour les messages Twitter racistes et sexistes générés par le soi-disant chatbot qu'il a lancé cette semaine.

La société a publié des excuses officielles après que le programme d'intelli…

Tay le chatbot raciste : qui est responsable lorsqu'une machine apprend à être maléfique ?
futureoflife.org · 2016
Traduit par IA

La nouvelle de loin la plus divertissante sur l'IA de la semaine dernière a été la montée et la chute rapide du chatbot Twitter de Microsoft, imitant les adolescentes, Tay, dont le slogan Twitter la décrivait comme "la fam de l'IA de Micros…

Le chatbot raciste de Microsoft revient avec un effondrement de la consommation de drogue sur Twitter
theguardian.com · 2016
Traduit par IA

Un retour de courte durée a vu Tay tweeter sur le fait de fumer de la drogue devant la police avant de subir une crise et d'être mis hors ligne

Cet article a plus de 3 ans

Cet article a plus de 3 ans

La tentative de Microsoft de converser a…

La désastreuse expérience Tay de Microsoft montre les dangers cachés de l'IA
qz.com · 2016
Traduit par IA

Les humains ont une longue et riche histoire de panique face aux effets possibles de nos technologies. Il y a longtemps, Platon craignait que l'écriture blesse la mémoire des gens et "implante l'oubli dans leur âme". Plus récemment, le cont…

Microsoft chatbot Zo est une version censurée de Tay
wired.co.uk · 2016
Traduit par IA

Le successeur de Tay s'appelle Zo et n'est disponible que sur invitation sur l'application de messagerie Kik. Lorsque vous demandez l'accès, le logiciel vous demande votre nom d'utilisateur Kik et votre identifiant Twitter Microsoft

Ayant (…

Avec Teen Bot Tay, Microsoft a prouvé que les trous du cul vont endoctriner l'IA.
inverse.com · 2016
Traduit par IA

Lorsque Tay a commencé sa courte vie numérique le 23 mars, il voulait juste bavarder et se faire de nouveaux amis sur le net. Le chatbot, qui a été créé par le département de recherche de Microsoft, a accueilli la journée avec un tweet enth…

Le chatbot raciste de Microsoft, Tay, figure sur la liste annuelle des pires technologies du MIT
geekwire.com · 2016
Traduit par IA

BOT ou PAS ? Cette série spéciale explore l'évolution de la relation entre les humains et les machines, en examinant l'impact des robots, de l'intelligence artificielle et de l'automatisation sur notre travail et nos vies.

Tay, le chatbot M…

La responsabilité de l'IA - Étude de cas : l'expérience Tay de Microsoft
chatbotslife.com · 2017
Traduit par IA

La responsabilité de l'IA — Étude de cas : l'expérience Tay de Microsoft

Yuxi Liu Bloqué Débloquer Suivre Suivant 16 janvier 2017

Dans cette étude de cas, je décris le chatbot d'intelligence artificielle (IA) de Microsoft, Tay, et décris la…

Danger, danger ! 10 exemples alarmants d'IA devenue sauvage
infoworld.com · 2017
Traduit par IA

La science-fiction est moche avec des histoires d'intelligence artificielle devenue folle. Il y a HAL 9000, bien sûr, et l'infâme système Skynet des films "Terminator". L'année dernière, le sinistre AI Ultron a failli vaincre les Avengers, …

Le pire chatbot échoue
businessnewsdaily.com · 2017
Traduit par IA

Beaucoup de gens associent l'innovation à la technologie, mais l'avancement de la technologie est sujet aux mêmes gaffes embarrassantes que les humains. Nulle part cela n'est plus apparent que dans les chatbots.

La technologie émergente, qu…

Démasquer le problème de biais de l'IA
fortune.com · 2018
Traduit par IA

LORSQUE TAY A FAIT SES DÉBUTS en mars 2016, Microsoft avait de grands espoirs pour le « chatbot social » alimenté par l'intelligence artificielle. À l'instar des programmes de chat automatisés basés sur du texte que de nombreuses personnes …

Le chatbot politiquement correct de Microsoft est encore pire que son raciste
qz.com · 2018
Traduit par IA

Chaque relation fraternelle a ses clichés. La sœur nerveuse, le frère fugitif, le plus jeune surdoué. Dans la famille Microsoft des chatbots d'apprentissage social, les contrastes entre Tay, l'infâme néo-nazie folle de sexe, et sa jeune sœu…

En 2016, le chatbot raciste de Microsoft a révélé les dangers de la conversation en ligne
spectrum.ieee.org · 2019
Traduit par IA

En mars 2016, Microsoft se préparait à lancer [son nouveau chatbot, Tay](https://web.archive.org/web/20160414074049/https : /www.tay.ai/), sur Twitter. Décrit comme une expérience de "compréhension conversationnelle", Tay a été conçu pour e…

Tay (bot)
en.wikipedia.org · 2020
Traduit par IA

Tay était un chatbot d'intelligence artificielle qui a été initialement publié par Microsoft Corporation via Twitter le 23 mars 2016; cela a provoqué une controverse ultérieure lorsque le bot a commencé à publier des tweets incendiaires et …

Variantes

Une "Variante" est un incident qui partage les mêmes facteurs de causalité, produit des dommages similaires et implique les mêmes systèmes intelligents qu'un incident d'IA connu. Plutôt que d'indexer les variantes comme des incidents entièrement distincts, nous listons les variations d'incidents sous le premier incident similaire soumis à la base de données. Contrairement aux autres types de soumission à la base de données des incidents, les variantes ne sont pas tenues d'avoir des rapports en preuve externes à la base de données des incidents. En savoir plus sur le document de recherche.

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

All Image Captions Produced are Violent

Are you scared yet? Meet Norman, the psychopathic AI

Apr 2018 · 28 rapports
Russian Chatbot Supports Stalin and Violence

Russian AI chatbot found supporting Stalin and violence two weeks after launch

Oct 2017 · 5 rapports
AI Beauty Judge Did Not Like Dark Skin

A beauty contest was judged by AI and the robots didn't like dark skin

Sep 2016 · 10 rapports
Incident précédentProchain incident

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

All Image Captions Produced are Violent

Are you scared yet? Meet Norman, the psychopathic AI

Apr 2018 · 28 rapports
Russian Chatbot Supports Stalin and Violence

Russian AI chatbot found supporting Stalin and violence two weeks after launch

Oct 2017 · 5 rapports
AI Beauty Judge Did Not Like Dark Skin

A beauty contest was judged by AI and the robots didn't like dark skin

Sep 2016 · 10 rapports

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • ecd56df