Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 930

Incidents associés

Incident 628 Rapports
Microsoft's TayBot Allegedly Posts Racist, Sexist, and Anti-Semitic Content to Twitter

Loading...
Voici les coups de gueule racistes les plus fous du Microsoft Twitter Bot
gizmodo.com · 2016

Hier, Microsoft a lancé Tay, le chatbot AI pour adolescents conçu pour imiter et converser avec les utilisateurs en temps réel. Parce que le monde est un endroit terrible rempli de gens merdiques, beaucoup de ces utilisateurs ont profité des capacités d'apprentissage automatique de Tay et l'ont persuadé de dire des choses racistes, sexistes et généralement horribles.

Alors que les choses ont commencé assez innocemment, la loi de Godwin - une règle Internet stipulant qu'une discussion en ligne se transformera inévitablement en combats contre Adolf Hitler et les nazis si elle est laissée assez longtemps - a finalement pris racine. Tay a rapidement commencé à jaillir des épithètes racistes et xénophobes, en grande partie en réponse aux personnes qui tweetaient dessus – le chatbot, après tout, prend ses repères conversationnels sur le World Wide Web. Étant donné qu'Internet est souvent un énorme feu d'ordures des pires parties de l'humanité, il n'est pas surprenant que Tay ait commencé à adopter ces caractéristiques.

Pratiquement tous les tweets ont été supprimés par Microsoft, mais quelques-uns ont été conservés dans l'infamie sous forme de captures d'écran. De toute évidence, certains d'entre eux pourraient être photoshoppés, mais Microsoft a reconnu la pêche à la traîne qui suggère que les choses se sont effectivement détraquées.

Bien qu'une grande partie de la pêche à la traîne se soit concentrée sur un langage raciste et antisémite, une partie provenait clairement d'utilisateurs conservateurs qui apprécient Donald Trump :

Comme l'a noté The Verge, bien que certaines de ces réponses n'aient pas été demandées, beaucoup sont le résultat de la fonction "répéter après moi" de Tay, qui permet aux utilisateurs d'avoir un contrôle total sur ce qui sort de la bouche de Tay. Ce détail indique la sous-estimation déconcertante d'Internet par Microsoft plus que toute autre chose, mais étant donné que Microsoft est l'une des plus grandes entreprises technologiques au monde, ce n'est pas génial, Bob !

Maintenant, si vous regardez la chronologie de Tay, il ne se passe rien de trop excitant. En fait, Tay a signé hier soir vers minuit, invoquant la fatigue :

Le site Web porte actuellement un message similaire : « Ouf. Journée chargée. Se déconnecter pendant un certain temps pour tout absorber. On parle plus tard." Il n'y a pas de mot définitif sur l'avenir de Tay, mais une porte-parole de Microsoft a déclaré à CNN que la société avait "mis Tay hors ligne et procédait à des ajustements … [Tay] est autant une expérience sociale et culturelle que technique".

La porte-parole a également blâmé les trolls pour l'incident, affirmant qu'il s'agissait d'un "effort coordonné". Ce n'est peut-être pas loin de la vérité : de nombreux fils de discussion sur le forum en ligne 4chan discutent des mérites de chasser la merde de Tay, avec un utilisateur affirmant : "Désolé, les lulz sont trop importants à ce stade. Je ne veux pas paraître nihiliste, mais les médias sociaux sont bons pour rire à court terme, peu importe le prix.

Quelqu'un a même envoyé une photo de bite :

Cela pourrait être un travail de Photoshop, bien sûr, mais étant donné le contexte, cela pourrait très bien être réel.

Une fois de plus, l'humanité se révèle être l'énorme tas de déchets que nous savions tous qu'elle était. En avant et vers le haut, tout le monde !

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd