Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 925

Incidents associés

Incident 628 Rapports
TayBot

Le chatbot raciste de Microsoft, Tay, figure sur la liste annuelle des pires technologies du MIT
geekwire.com · 2016

BOT ou PAS ? Cette série spéciale explore l'évolution de la relation entre les humains et les machines, en examinant l'impact des robots, de l'intelligence artificielle et de l'automatisation sur notre travail et nos vies.

Tay, le chatbot Microsoft que les farceurs ont formé pour cracher des commentaires racistes, a rejoint Apple Watch et le smartphone Samsung Galaxy Note 7 sujet aux incendies sur la liste des plus grandes défaillances technologiques de 2016 du MIT Technology Review.

Tay a eu sa journée en mars, lorsqu'il a été présenté comme un agent d'intelligence artificielle à l'esprit millénaire qui pouvait en apprendre davantage sur le monde grâce à ses conversations avec les utilisateurs. Il n'a que trop bien appris la nature humaine : les fauteurs de troubles ont nourri son esprit artificiel avec des jurons, du racisme, des sentiments nazis et des théories du complot. Dans les 24 heures, Microsoft a dû mettre Tay hors ligne.

D'autres faux pas technologiques ont été considérés comme des échecs car ils n'ont pas décollé comme prévu, comme ce fut le cas pour la smartwatch d'Apple ; ou parce qu'ils ont pris feu, comme les batteries du téléphone Samsung.

La controverse sur les «fausses nouvelles» de Facebook et le «dispositif de défaite» de Volkswagen, conçu pour tromper les tests d'émissions américains, figuraient également sur la liste. Mais de tous les échecs sur la liste du MIT, mon vote va au projet Glowing Plant, qui a levé près d'un demi-million de dollars sur Kickstarter pour développer des plantes bio-ingénierie qui brillent dans le noir.

La production végétale n'a pas encore porté ses fruits, mais elle s'est transformée en un projet différent sous un nouveau nom : Taxa Biotechnologies). Maintenant, les organisateurs de l'effort promettent de créer des souches de mousse issues de la bio-ingénierie qui dégagent des odeurs parfumées… et finissent par briller. La saga Glowing Plant pointe les limites du biohacking et de la biotechnologie, ainsi que les limites du crowdfunding.

Pendant ce temps, Microsoft a appris ses leçons de Tay et est de retour avec un nouveau corps de chatbots IA – y compris Zo, un millénaire synthétique programmé pour éviter les sujets potentiellement épineux. Les chatbots apparaîtront-ils sur la liste 2017 des meilleurs ou des pires ? Cortana, qu'en pensez-vous ?

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 818b77a