Incidents associés

Copyright de l'image Microsoft Image caption L'IA a appris à parler comme un adolescent
Microsoft s'est excusé d'avoir créé un chatbot artificiellement intelligent qui s'est rapidement transformé en raciste négationniste.
Mais ce faisant, il a été clair que les opinions de Tay étaient le résultat de l'éducation et non de la nature. Tay a confirmé ce que nous savions déjà : les internautes peuvent être cruels.
Tay, destiné aux 18-24 ans sur les réseaux sociaux, a été la cible d'une "attaque coordonnée par un sous-ensemble de personnes" après avoir été lancée plus tôt cette semaine.
Dans les 24 heures, Tay avait été désactivé afin que l'équipe puisse faire des "ajustements".
Mais vendredi, le responsable de la recherche de Microsoft a déclaré que la société était "profondément désolée pour les tweets offensants et blessants involontaires" et a retiré Tay de Twitter dans un avenir prévisible.
Peter Lee a ajouté : "Tay est maintenant hors ligne et nous chercherons à ramener Tay uniquement lorsque nous serons convaincus que nous pourrons mieux anticiper les intentions malveillantes qui entrent en conflit avec nos principes et nos valeurs."
Tay a été conçu pour apprendre des interactions qu'il a eues avec de vraies personnes sur Twitter. Saisissant une opportunité, certains utilisateurs ont décidé de l'alimenter d'informations racistes et offensantes.
Copyright de l'image Twitter Image caption Certains des tweets de Tay semblent quelque peu incendiaires
En Chine, les gens ont réagi différemment - un chatbot similaire avait été déployé auprès des utilisateurs chinois, mais avec des résultats légèrement meilleurs.
"Tay n'était pas la première application d'intelligence artificielle que nous avons lancée dans le monde social en ligne", a écrit le responsable de la recherche de Microsoft.
"En Chine, notre chatbot XiaoIce est utilisé par quelque 40 millions de personnes, ravies par ses histoires et ses conversations.
"La grande expérience avec XiaoIce nous a amenés à nous demander : une IA comme celle-ci serait-elle tout aussi captivante dans un environnement culturel radicalement différent ?"
Tay corrompu
La rétroaction, semble-t-il, est que le public occidental réagit très différemment lorsqu'il est présenté à un chatbot qu'il peut influencer. Tout comme apprendre à un Furby à jurer, la tentation de corrompre le Tay bien intentionné était trop grande pour certains.
Cela dit, M. Lee a déclaré qu'une vulnérabilité spécifique signifiait que Tay pouvait devenir méchant.
"Bien que nous nous soyons préparés à de nombreux types d'abus du système, nous avions effectué une surveillance critique pour cette attaque spécifique.
"En conséquence, Tay a tweeté des mots et des images extrêmement inappropriés et répréhensibles. Nous assumons l'entière responsabilité de ne pas voir cette possibilité à l'avance."
Il n'a pas précisé la nature précise de la vulnérabilité.
M. Lee a déclaré que son équipe continuerait à travailler sur les robots IA dans l'espoir qu'ils puissent interagir sans effets secondaires négatifs.
"Nous devons entrer dans chacun d'eux avec beaucoup de prudence et finalement apprendre et nous améliorer, étape par étape, et le faire sans offenser les gens dans le processus.
"Nous resterons fermes dans nos efforts pour apprendre de cette expérience et d'autres alors que nous nous efforçons de contribuer à un Internet qui représente le meilleur, et non le pire, de l'humanité."
La semaine prochaine, Microsoft organise sa conférence annuelle des développeurs, Build. On s'attend à ce que l'intelligence artificielle occupe une place importante.
Suivez Dave Lee sur Twitter @DaveLeeBBC ou sur Facebook