Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2034

Incidents associés

Incident 10613 Rapports
Korean Chatbot Luda Made Offensive Remarks towards Minority Groups

Loading...
Le chatbot AI controversé de Corée, Luda, sera temporairement fermé
pulsenews.co.kr · 2021

Le chatbot IA sud-coréen Lee Luda (Luda) sera temporairement suspendu après avoir été critiqué pour ses déclarations discriminatoires et vulgaires, ainsi que pour des allégations de violation de la vie privée.

"Nous reviendrons avec un service amélioré après avoir résolu les problèmes", a déclaré lundi Scatter Lab, la startup coréenne qui développe le bot interactif.

Luda a été lancée le 23 décembre en tant que robot féminin de 20 ans fonctionnant sur Facebook Messenger. Sa capacité à s'engager dans des conversations naturelles et réalistes a rapidement attiré l'attention des Coréens, l'aidant à accumuler une base d'utilisateurs de 400 000 en moins d'un mois.

Mais il a fait la une des journaux lorsque certains utilisateurs masculins l'ont utilisé pour avoir des conversations sexuelles et partager des conseils sur la façon d'en faire un esclave sexuel.

D'autres conversations ont montré que Luda faisait des remarques homophobes ou discriminatoires, qualifiant les homosexuels de "dégoûtants" et "effrayants".

La société s'est excusée pour les remarques du robot concernant la communauté LGBTQ. « Les déclarations ne reflètent pas les valeurs fondamentales de l'entreprise. Nous travaillons sur des moyens d'empêcher de tels discours de haine discriminatoires à l'avenir », a déclaré Scatter Lab.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd