Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1866

Incidents associés

Incident 2783 Rapports
Meta’s BlenderBot 3 Chatbot Demo Made Offensive Antisemitic Comments

Loading...
"Il est douloureux de voir certaines de ces réponses offensantes" - Meta défend son chatbot BlenderBot 3 parfois antisémite
fortune.com · 2022

Salut, David Meyer ici à Berlin, remplaçant Jeremy cette semaine.

Meta, la société mère de Facebook, a défendu sa décision de lancer une démonstration publique de son nouveau chatbot BlenderBot 3, qui est devenu offensant à peu près dès sa mise à disposition vendredi dernier.

Comme ma collègue Alice Hearing l'a rapporté hier, BlenderBot 3 s'est rapidement mis à régurgiter des tropes antisémites et à nier que l'ancien Le président Donald Trump a perdu les élections de 2020. Plus casse-tête qu'outrageusement, il a également affirmé dans diverses conversations qu'il était chrétien et plombier.

Meta, il convient de le noter, était clair dès le début que BlenderBot 3 était "occasionnellement incorrect, incohérent et hors sujet », bien qu'il s'agisse d'une amélioration par rapport aux chatbots précédents. (Meta publie une nouvelle version de BlenderBot chaque année depuis 2020, et celle-ci utilise un modèle de langage—OPT-175B—c'est 58 fois la taille de celui qui a alimenté BlenderBot 2. Il a également une mémoire à long terme maintenant. )

Comme l'a écrit la société :

"Depuis que toutes les I.A. conversationnelles. les chatbots sont connus pour parfois imiter et générer des remarques dangereuses, biaisées ou offensantes, nous avons mené des études à grande échelle, co-organisé des ateliers et développé de nouvelles techniques pour créer des protections pour BlenderBot 3. Malgré ce travail, BlenderBot peut toujours faire grossier ou des commentaires offensants, c'est pourquoi nous recueillons des commentaires qui aideront à améliorer les futurs chatbots.

Après la controverse du week-end, l'IA fondamentale de Meta. Joelle Pineau, chef de la recherche, a signalé cet avertissement antérieur et [a insisté sur le fait que le travail en valait la peine] (https://ai.facebook.com/blog/blenderbot-3-a-175b-parameter-publicly-available-chatbot-that-improves -ses-compétences-et-sa-sécurité-dans-le-temps/):

"Bien qu'il soit douloureux de voir certaines de ces réponses offensives, des démos publiques comme celle-ci sont importantes pour construire une IA conversationnelle vraiment robuste. systèmes et combler le fossé évident qui existe aujourd'hui avant que de tels systèmes puissent être mis en production », a-t-elle écrit lundi. "Nous avons déjà collecté 70 000 conversations à partir de la démo publique, que nous utiliserons pour améliorer BlenderBot 3... Nous continuons à croire que la façon de faire progresser l'IA. passe par une recherche ouverte et reproductible à grande échelle.

Les temps ont certainement changé depuis que le tristement célèbre chatbot Tay de Microsoft a choqué le monde avec sa négation de l'Holocauste et sa misogynie en 2016, ce qui a conduit à son rapide tirer - maintenant, de telles choses sont considérées comme nécessaires pour la formation de l'IA.

C'est en fait assez juste. Personne - enfin, pas beaucoup de gens - n'aimerait voir une entreprise déployer complètement un chatbot qui émet des déchets dangereux, et Meta s'efforce de rendre BlenderBot plus sûr. "Les premières expériences montrent déjà que plus les gens interagissent avec le modèle, plus il apprend de ses expériences et plus il devient meilleur et plus sûr au fil du temps, bien que la sécurité reste un problème ouvert", a déclaré la société lors du lancement de la démo publique.

Cependant, Meta impose une limite assez importante à qui peut interagir avec ce modèle : c'est uniquement aux États-Unis, donc les gens comme moi ne peuvent pas jouer.

D'une part, cela évite probablement à Meta beaucoup de tracas avec des systèmes juridiques qui ne donnent pas autant la priorité à la liberté d'expression que les États-Unis. L'Allemagne, où j'habite, n'apprécie pas du tout les expressions de négation de l'Holocauste, et ses tribunaux ne pourraient pas non plus apprécier les allégations que les rabbins américains ont préconisés pour une "solution finale » en 1940.

D'autre part, l'exposition limitée de BlenderBot présente un risque d'esprit de clocher et de biais centrés sur les États-Unis qui pourraient affecter les futures versions produites. Ceux d'entre nous dans le reste du monde sont en quelque sorte habitués à voir cela de la technologie américaine, mais si l'intention est de proposer une expérience qui met les gens à l'aise, une formation plus internationalisée aiderait.

Le temps nous dira dans quelle direction va le chatbot de Meta. En attendant, profitons simplement des vues extrêmement oscillantes de BlenderBot 3 du suzerain Mark Zuckerberg, qui est « un bon homme d'affaires », « un homme formidable et très intelligent », « une mauvaise personne » et « trop effrayant et manipulateur » dépend de qui demande.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd