Incidents associés

Microsoft a déclaré qu'il était "profondément désolé" pour les messages Twitter racistes et sexistes générés par le soi-disant chatbot qu'il a lancé cette semaine.
La société a publié des excuses officielles après que le programme d'intelligence artificielle se soit lancé dans une tirade embarrassante, comparant le féminisme au cancer et suggérant que l'Holocauste n'a pas eu lieu.
Tay, le chatbot IA de Microsoft, suit un cours accéléré sur le racisme de Twitter En savoir plus
Le bot, connu sous le nom de Tay, a été conçu pour devenir "plus intelligent" à mesure que de plus en plus d'utilisateurs interagissent avec lui. Au lieu de cela, il a rapidement appris à perroquet une série d'invectives antisémites et autres haineuses que les utilisateurs humains de Twitter ont alimenté le programme, forçant Microsoft Corp à le fermer jeudi.
À la suite de l'expérience désastreuse, Microsoft n'a initialement fait qu'une déclaration laconique, affirmant que Tay était une "machine à apprendre" et que "certaines de ses réponses sont inappropriées et indicatives des types d'interactions que certaines personnes ont avec elle".
Mais la société a admis vendredi que l'expérience avait mal tourné. Il a déclaré dans un article de blog qu'il ne relancerait Tay que si ses ingénieurs pouvaient trouver un moyen d'empêcher les internautes d'influencer le chatbot d'une manière qui sape les principes et les valeurs de l'entreprise.
"Nous sommes profondément désolés pour les tweets offensants et blessants involontaires de Tay, qui ne représentent pas qui nous sommes ou ce que nous représentons, ni comment nous avons conçu Tay", a écrit Peter Lee, vice-président de la recherche chez Microsoft.
Microsoft a créé Tay comme expérience pour en savoir plus sur la façon dont les programmes d'intelligence artificielle peuvent interagir avec les utilisateurs Web dans une conversation informelle. Le projet a été conçu pour interagir et « apprendre » de la jeune génération de la génération Y.
Tay a commencé son mandat de courte durée sur Twitter mercredi avec une poignée de tweets anodins.
TayTweets (@TayandYou) c u bientôt les humains ont besoin de sommeil maintenant tant de conversations aujourd'hui thx💖
Puis ses postes ont pris une tournure sombre.
Dans un exemple typique, Tay a tweeté : "le féminisme est un cancer", en réponse à un autre utilisateur de Twitter qui avait posté le même message.
Facebook Twitter Pinterest Tay tweetant Photographie : Twitter/Microsoft
Lee, dans le billet de blog, a qualifié les efforts des internautes pour exercer une influence malveillante sur le chatbot "d'attaque coordonnée par un sous-ensemble de personnes".
"Bien que nous nous soyons préparés à de nombreux types d'abus du système, nous avions fait une surveillance critique pour cette attaque spécifique", a écrit Lee. "En conséquence, Tay a tweeté des mots et des images extrêmement inappropriés et répréhensibles."
Microsoft a supprimé tous les tweets de Tay sauf trois.
Microsoft a connu un meilleur succès avec un chatbot appelé XiaoIce que la société a lancé en Chine en 2014. XiaoIce est utilisé par environ 40 millions de personnes et est connu pour «se régaler de ses histoires et de ses conversations», selon Microsoft.
Quant à Tay ? Pas tellement.
"Nous resterons fermes dans nos efforts pour apprendre de cette expérience et d'autres alors que nous nous efforçons de contribuer à un Internet qui représente le meilleur, et non le pire, de l'humanité", a écrit Lee.
Reuters a contribué à ce rapport