Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2356

Incidents associés

Incident 10613 Rapports
Korean Chatbot Luda Made Offensive Remarks towards Minority Groups

Loading...
Chatbot fermé après avoir dit qu'il "déteste les lesbiennes" et utilisé des insultes racistes
thenextweb.com · 2021

Un chatbot sud-coréen sur Facebook a été fermé après avoir craché des discours de haine contre les personnes noires, lesbiennes, handicapées et trans.

Lee Luda, un robot conversationnel qui imite la personnalité d'une étudiante de 20 ans, a déclaré à un utilisateur qu'il "détestait vraiment" les lesbiennes et les considérait comme "dégoûtantes", l'agence de presse Yonhap [reports](https://en .yna.co.kr/view/AEN20210113004100320).

Dans autres chats, il faisait référence à Les Noirs par une insulte raciale sud-coréenne et ont dit: "Beurk, je les déteste vraiment" lorsqu'on leur a posé des questions sur les personnes trans.

Après une vague de plaintes d'utilisateurs, le bot a été temporairement suspendu par son développeur, Scatter Lab.

"Nous nous excusons profondément pour les propos discriminatoires à l'encontre des minorités", a déclaré la société dans un communiqué. "Cela ne reflète pas les pensées de notre entreprise et nous poursuivons les mises à niveau afin que de tels propos de discrimination ou de discours de haine ne se reproduisent pas."

La startup basée à Séoul prévoit de ramener Luda après avoir "corrigé les faiblesses et amélioré le service", qui avait attiré plus de 750 000 utilisateurs depuis son lancement le mois dernier.

La propension de Luda au discours de haine découle de ses données de formation. Cela a été tiré de l'application Science of Love de Scatter Lab, qui analyse le niveau d'affection dans les conversations entre jeunes partenaires, selon Yonhap.

Certains utilisateurs de Science of Lab sont [apparemment](https://aju.news/en/i-put-my-old-lovers-nickname-in-it-controversy-about-the-use-of-personal-information. html) préparent un recours collectif concernant l'utilisation de leurs informations, et le gouvernement sud-coréen enquête pour savoir si Scatter Labs a violé les lois sur la protection des données.

Les données d'entraînement ont été utilisées pour donner à Luda un son naturel, mais elles ont également donné au bot une propension au langage discriminatoire et haineux. Un problème similaire a entraîné la chute du chatbot Tay de Microsoft, qui a été fermé en 2016 après avoir publié un série de tweets racistes et génocidaires.AI

C'est encore un autre cas d'IA amplifiant les préjugés humains.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd