Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1424

Incidents associés

Incident 10613 Rapports
Korean Chatbot Luda Made Offensive Remarks towards Minority Groups

Loading...
Des groupes civiques déposent une pétition contre les violations des droits de l'homme par le chatbot Luda
koreaherald.com · 2021

Mercredi, des groupes civiques sud-coréens ont déposé une pétition auprès de l'organisme de surveillance des droits de l'homme du pays concernant un chatbot d'intelligence artificielle désormais suspendu pour son langage préjudiciable et offensant contre les femmes et les minorités.

Une association de groupes civiques a demandé à la Commission nationale des droits de l'homme de Corée d'enquêter sur les violations des droits de l'homme liées au chatbot Lee Luda, développé par la startup locale Scatter Lab.

Les groupes, qui comprennent la Solidarité populaire pour la démocratie participative et Avocats pour une société démocratique, ont également exigé des modifications des lois en vigueur et exhorté les institutions à prévenir les violations des droits de l'homme résultant de l'abus des technologies de l'IA.

"L'affaire Lee Luda ne constitue pas seulement des violations des droits de l'homme des individus, mais elle montre également comment l'abus des technologies de l'IA peut avoir un impact négatif sur les droits de l'homme", ont déclaré les groupes dans un communiqué.

Le chatbot IA basé sur les réseaux sociaux Lee Luda, qui a été conçu pour parler comme une étudiante universitaire de 20 ans, a attiré plus de 750 000 utilisateurs avec sa réponse réaliste et naturelle. Le bot a appris de quelque 10 milliards de conversations réelles entre jeunes couples tirées de l'application de messagerie populaire du pays, KakaoTalk.

Cependant, les services de robots ont été suspendus moins d'un mois après son lancement, car des membres du public ont déposé des plaintes concernant l'utilisation par Luda de discours de haine envers les minorités sexuelles et les personnes handicapées dans les conversations. Certains ont également allégué qu'il y avait des utilisateurs masculins qui avaient réussi à manipuler le chatbot pour s'engager dans des conversations sexuelles.

La société a également été soupçonnée d'une éventuelle violation des lois sur la confidentialité lors du processus de récupération des données personnelles de ses utilisateurs, beaucoup se plaignant que leurs vrais noms et adresses étaient apparus dans les conversations avec Luda.

La société s'est excusée à ce sujet, affirmant qu'elle n'avait pas "communiqué suffisamment" avec ses utilisateurs.

Présentant des recommandations politiques à l'organisme de surveillance des droits de l'homme, les groupes ont appelé à une refonte des institutions et des réglementations concernées pour prévenir les violations de la vie privée et de la liberté d'expression par l'abus des technologies et des algorithmes d'IA.

"La Corée adopte sans aucun doute de nouvelles technologies dans les secteurs commerciaux au nom de la quatrième révolution industrielle, et il n'y a ni base législative ni administrative pour protéger les droits des citoyens", ont-ils déclaré.

Les groupes ont également demandé à la NHRCK de formuler des recommandations pour que les victimes dont les données personnelles avaient été utilisées sans consentement dans l'affaire Luda soient indemnisées.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd