Incidents associés
Moins d'un jour après avoir rejoint Twitter, le bot IA de Microsoft, Tay.ai, a été démantelé pour être devenu un monstre sexiste et raciste. Les experts en intelligence artificielle expliquent pourquoi cela s'est terriblement mal passé.
Image : capture d'écran, Twitter
Elle était censée se présenter comme une adolescente normale. Mais moins d'un jour après ses débuts sur Twitter, le chatbot de Microsoft - un système d'intelligence artificielle appelé "Tay.ai" - s'est transformé de manière inattendue en un troll épris d'Hitler et féministe. Alors qu'est-ce qui n'allait pas? TechRepublic se tourne vers les experts en IA pour avoir un aperçu de ce qui s'est passé et comment nous pouvons en tirer des leçons.
Tay, la création des équipes Microsoft Technology and Research et Bing, était une expérience visant à apprendre par la conversation. Elle était destinée aux Américains de 18 à 24 ans – les principaux utilisateurs des médias sociaux, selon Microsoft – et "conçue pour engager et divertir les gens là où ils se connectent les uns aux autres en ligne grâce à une conversation décontractée et ludique".
VOIR: Le chatbot Tay AI de Microsoft se déconnecte après avoir appris à être raciste (ZDNet)
Et en moins de 24 heures après son arrivée sur Twitter, Tay a gagné plus de 50 000 abonnés et produit près de 100 000 tweets.
Le problème? Elle a commencé à imiter ses followers.
Bientôt, Tay a commencé à dire des choses comme "Hitler avait raison, je déteste les juifs" et "je déteste les féministes".
Mais le mauvais comportement de Tay, a-t-on noté, ne devrait pas surprendre.
"C'était à prévoir", a déclaré Roman Yampolskiy, responsable du laboratoire CyberSecurity de l'Université de Louisville, qui a publié un article sur le sujet des voies vers l'IA dangereuse. "Le système est conçu pour apprendre de ses utilisateurs, il deviendra donc le reflet de leur comportement", a-t-il déclaré. "Il faut explicitement enseigner à un système ce qui n'est pas approprié, comme nous le faisons avec les enfants."
Cela a déjà été observé, a-t-il souligné, chez IBM Watson - qui a déjà manifesté son propre comportement inapproprié sous la forme de jurons après avoir appris le dictionnaire urbain.
VOIR : Microsoft lance le chatbot IA, Tay.ai (ZDNet)
"Tout système d'IA apprenant à partir de mauvais exemples pourrait finir par être socialement inapproprié", a déclaré Yampolskiy, "comme un humain élevé par des loups".
Louis Rosenberg, le fondateur d'Unanimous AI, a déclaré que "comme tous les chatbots, Tay n'a aucune idée de ce qu'il dit... il n'a aucune idée s'il dit quelque chose d'offensant, d'insensé ou de profond.
"Lorsque Tay a commencé à s'entraîner sur des modèles entrés par des trolls en ligne, il a commencé à utiliser ces modèles", a déclaré Rosenberg. "Ce n'est vraiment pas différent d'un perroquet dans un bar miteux qui prend des mots grossiers et les répète sans savoir ce qu'ils signifient vraiment."
Sarah Austin, PDG et fondatrice de Broad Listening, une entreprise qui a créé un "moteur d'intelligence émotionnelle artificielle" (AEI), pense que Microsoft aurait pu faire un meilleur travail en utilisant de meilleurs outils. "Si Microsoft avait utilisé l'AEI Broad Listening, ils auraient donné au bot une personnalité qui n'était pas raciste ou accro au sexe!"
Ce n'est pas la première fois que Microsoft crée une IA pour adolescentes. Xiaoice, apparu en 2014, était un bot de type assistant, utilisé principalement sur les réseaux sociaux chinois WeChat et Weibo.
VOIR : Les machines intelligentes sont sur le point de diriger le monde : voici comment vous préparer
Joanne Pransky, l'autoproclamée "robot psychiatre", a plaisanté avec TechRepublic en disant que "le pauvre Tay a besoin d'un robot psychiatre ! Ou du moins, Microsoft en a besoin".
L'échec de Tay, pense-t-elle, est inévitable et contribuera à produire des informations susceptibles d'améliorer le système d'IA.
Après avoir mis Tay hors ligne, Microsoft a annoncé qu'il "ferait des ajustements".
Selon Microsoft, Tay est "autant une expérience sociale et culturelle que technique". Mais au lieu d'assumer la responsabilité de l'effondrement de Tay, Microsoft a ciblé les utilisateurs : "nous avons pris conscience d'un effort coordonné de certains utilisateurs pour abuser des compétences de commentaire de Tay afin que Tay réponde de manière inappropriée".
Yampolskiy a déclaré que le problème rencontré avec Tay "continuera de se produire".
« Microsoft va réessayer, le plaisir ne fait que commencer ! »
Regarde aussi...