Incidents associés
Microsoft a reçu une leçon rapide cette semaine sur le côté obscur des médias sociaux. Hier, la société a lancé "Tay", une intelligence artificielle chatbot conçu pour développer la compréhension conversationnelle en interagissant avec les humains. Les utilisateurs pouvaient suivre et interagir avec le bot @TayandYou sur Twitter et il tweetait en retour, apprenant au fur et à mesure des messages des autres utilisateurs. Aujourd'hui, Microsoft a dû fermer Tay parce que le bot a commencé à cracher une série de tweets obscènes et racistes.
Tay a été mis en place avec un jeune personnage féminin que les programmeurs Microsoft's AI avaient apparemment l'intention de faire appel aux millenials. Cependant, dans les 24 heures, les utilisateurs de Twitter ont trompé le bot en postant des choses comme "Hitler était c'est vrai, je déteste les juifs" et "Ted Cruz est le Hitler cubain". Tay a également tweeté à propos de Donald Trump: "Tous saluent le chef des garçons de la maison de retraite."
Les utilisateurs humains de Twitter ont répondu :
Personne qui utilise les médias sociaux ne pourrait être trop surpris de voir le bot rencontrer des commentaires haineux et des trolls, mais le système d'intelligence artificielle n'a pas eu le jugement d'éviter d'incorporer de telles vues dans ses propres tweets.
Maintenant, beaucoup de gens se demandent ce que pensait Microsoft. "Cela vous fait vous gratter la tête. Comment ont-ils pu ne pas prévoir cela?" Jeff Bakalar de CNET a déclaré à CBS News. "C'est bizarre, c'est le moins qu'on puisse dire."
littéralement, n'importe qui que je connais aurait pu vous dire que cela arriverait @tayandyou. SEULS les gens des entreprises technologiques pourraient être si ignorants de l'humanité
— Leigh Alexander (@leighalexander) 24 mars 2016
Les tweets ont été supprimés du site et Tay s'est déconnectée, déclarant qu'elle avait besoin de repos.
c u bientôt les humains ont besoin de dormir maintenant tant de conversations aujourd'hui thx💖
— TayTweets (@TayandYou) 24 mars 2016
Microsoft a publié vendredi une déclaration sur le blog de l'entreprise, reconnaissant que son expérience Tay n'avait pas tout à fait fonctionné comme prévu.
"Nous sommes profondément désolés pour les tweets offensants et blessants involontaires de Tay, qui ne représentent pas qui nous sommes ou ce que nous représentons, ni comment nous avons conçu Tay", a-t-il déclaré. "Tay est maintenant hors ligne et nous chercherons à ramener Tay uniquement lorsque nous serons convaincus que nous pourrons mieux anticiper les intentions malveillantes qui entrent en conflit avec nos principes et nos valeurs."
Il a continué:
"Malheureusement, dans les 24 premières heures de mise en ligne, une attaque coordonnée par un sous-ensemble de personnes a exploité une vulnérabilité dans Tay. Bien que nous nous soyons préparés à de nombreux types d'abus du système, nous avions fait une surveillance critique pour cette attaque spécifique. En conséquence, Tay a tweeté des mots et des images extrêmement inappropriés et répréhensibles. Nous assumons l'entière responsabilité de ne pas voir cette possibilité à l'avance... En ce moment, nous travaillons dur pour remédier à la vulnérabilité spécifique qui a été révélée par l'attaque contre Tay.
... Pour bien faire l'IA, il faut itérer avec de nombreuses personnes et souvent dans des forums publics. Nous devons entrer dans chacun d'eux avec beaucoup de prudence et finalement apprendre et nous améliorer, étape par étape, et le faire sans offenser les gens dans le processus. Nous resterons fermes dans nos efforts pour apprendre de cette expérience et d'autres alors que nous nous efforçons de contribuer à un Internet qui représente le meilleur, et non le pire, de l'humanité."