Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 917

Incidents associés

Incident 628 Rapports
Microsoft's TayBot Allegedly Posts Racist, Sexist, and Anti-Semitic Content to Twitter

Loading...
Tay : Microsoft présente des excuses pour le fiasco raciste des chatbots
bbc.com · 2016

Copyright de l'image Microsoft Image caption L'IA a appris à parler comme un adolescent

Microsoft s'est excusé d'avoir créé un chatbot artificiellement intelligent qui s'est rapidement transformé en raciste négationniste.

Mais ce faisant, il a été clair que les opinions de Tay étaient le résultat de l'éducation et non de la nature. Tay a confirmé ce que nous savions déjà : les internautes peuvent être cruels.

Tay, destiné aux 18-24 ans sur les réseaux sociaux, a été la cible d'une "attaque coordonnée par un sous-ensemble de personnes" après avoir été lancée plus tôt cette semaine.

Dans les 24 heures, Tay avait été désactivé afin que l'équipe puisse faire des "ajustements".

Mais vendredi, le responsable de la recherche de Microsoft a déclaré que la société était "profondément désolée pour les tweets offensants et blessants involontaires" et a retiré Tay de Twitter dans un avenir prévisible.

Peter Lee a ajouté : "Tay est maintenant hors ligne et nous chercherons à ramener Tay uniquement lorsque nous serons convaincus que nous pourrons mieux anticiper les intentions malveillantes qui entrent en conflit avec nos principes et nos valeurs."

Tay a été conçu pour apprendre des interactions qu'il a eues avec de vraies personnes sur Twitter. Saisissant une opportunité, certains utilisateurs ont décidé de l'alimenter d'informations racistes et offensantes.

Copyright de l'image Twitter Image caption Certains des tweets de Tay semblent quelque peu incendiaires

En Chine, les gens ont réagi différemment - un chatbot similaire avait été déployé auprès des utilisateurs chinois, mais avec des résultats légèrement meilleurs.

"Tay n'était pas la première application d'intelligence artificielle que nous avons lancée dans le monde social en ligne", a écrit le responsable de la recherche de Microsoft.

"En Chine, notre chatbot XiaoIce est utilisé par quelque 40 millions de personnes, ravies par ses histoires et ses conversations.

"La grande expérience avec XiaoIce nous a amenés à nous demander : une IA comme celle-ci serait-elle tout aussi captivante dans un environnement culturel radicalement différent ?"

Tay corrompu

La rétroaction, semble-t-il, est que le public occidental réagit très différemment lorsqu'il est présenté à un chatbot qu'il peut influencer. Tout comme apprendre à un Furby à jurer, la tentation de corrompre le Tay bien intentionné était trop grande pour certains.

Cela dit, M. Lee a déclaré qu'une vulnérabilité spécifique signifiait que Tay pouvait devenir méchant.

"Bien que nous nous soyons préparés à de nombreux types d'abus du système, nous avions effectué une surveillance critique pour cette attaque spécifique.

"En conséquence, Tay a tweeté des mots et des images extrêmement inappropriés et répréhensibles. Nous assumons l'entière responsabilité de ne pas voir cette possibilité à l'avance."

Il n'a pas précisé la nature précise de la vulnérabilité.

M. Lee a déclaré que son équipe continuerait à travailler sur les robots IA dans l'espoir qu'ils puissent interagir sans effets secondaires négatifs.

"Nous devons entrer dans chacun d'eux avec beaucoup de prudence et finalement apprendre et nous améliorer, étape par étape, et le faire sans offenser les gens dans le processus.

"Nous resterons fermes dans nos efforts pour apprendre de cette expérience et d'autres alors que nous nous efforçons de contribuer à un Internet qui représente le meilleur, et non le pire, de l'humanité."

La semaine prochaine, Microsoft organise sa conférence annuelle des développeurs, Build. On s'attend à ce que l'intelligence artificielle occupe une place importante.

Suivez Dave Lee sur Twitter @DaveLeeBBC ou sur Facebook

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd