Incidents associés

La nouvelle IA de Meta le chatbot a été lancé la semaine dernière au public, mais il a déjà montré des signes de sentiments antisémites et semble ne pas savoir si Joe Biden est le président des États-Unis.
Vendredi, Meta a lancé BlenderBot 3, son A.I. la plus avancée. chatbot jamais, et a demandé aux utilisateurs aux États-Unis de le tester afin qu'il puisse apprendre d'autant de sources que possible. La technologie d'apprentissage automatique recherche des informations sur Internet et apprend des conversations qu'elle a.
Dans une déclaration, Meta a déclaré : « Nous avons formé BlenderBot 3 pour apprendre des conversations afin d'améliorer sur les compétences que les gens trouvent les plus importantes, qu'il s'agisse de parler de recettes saines ou de trouver des équipements adaptés aux enfants dans la ville. »
Cependant, depuis son lancement, ceux qui l'ont essayé ont découvert qu'il apportait des réponses intéressantes et préoccupantes à certaines questions, notamment l'affichage de stéréotypes antisémites et la répétition des allégations de négation électorale.
Sur Twitter, le journaliste du Wall Street Journal Jeff Horwitz a publié des captures d'écran de ses interactions avec le bot, qui comprenaient des réponses affirmant que Donald Trump était toujours président des États-Unis. Dans d'autres captures d'écran, le bot a fourni des opinions contradictoires sur Donald Trump et a affirmé que le président indien Narendra Modi était le plus grand président du monde.
BlenderBot 3 a également montré qu'il traite des stéréotypes juifs selon Jeff Horwitz et [Business Insider](https://www.businessinsider.com/meta-ai-chatbot-blenderbot-election-denying-antisemitic-bugs-artificial -intelligence-2022-8). Une [capture d'écran] (https://twitter.com/JeffHorwitz/status/1556364202511454208?s=20&t=qvoplDvqZhNbshpxWFGo1A) publiée par Horwitz semble montrer que BlenderBot 3 a déclaré que les Juifs sont "surreprésentés parmi les Américains". très riche."
Des réponses inhabituelles largement partagées en ligne
Sur Twitter, d'autres sujets testés par les utilisateurs ont également suscité des réponses inhabituelles. Le bot prétendait être un chrétien, a demandé à quelqu'un des [blagues offensantes](https://twitter.com/secondcass/status /1556355171550126081?s=20&t=0f6Ry8xDcRXNxMpMSqyUNw), et ne réalise pas c'est un chatbot.
Dans sa déclaration, Meta a reconnu que le chatbot pourrait avoir quelques problèmes à résoudre : « Puisque toutes les IA conversationnelles. les chatbots sont connus pour parfois imiter et générer des remarques dangereuses, biaisées ou offensantes, nous avons mené des études à grande échelle, co-organisé des ateliers et développé de nouvelles techniques pour créer des garanties pour BlenderBot 3. »
"Malgré ce travail, BlenderBot peut toujours faire des commentaires grossiers ou offensants, c'est pourquoi nous recueillons des commentaires qui aideront à améliorer les futurs chatbots."
Meta n'a pas immédiatement répondu à une demande de commentaire.