Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1417

Incidents associés

Incident 10613 Rapports
Korean Chatbot Luda Made Offensive Remarks towards Minority Groups

Loading...
(2e LD) Le développeur d'un service de chatbot IA condamné à une amende pour violation massive de données personnelles
en.yna.co.kr · 2021

SEOUL, 28 avr. (Yonhap) -- L'autorité sud-coréenne de protection des données a infligé ce mercredi une lourde sanction pécuniaire à une startup pour avoir divulgué une quantité massive d'informations personnelles dans le cadre du développement et de la commercialisation d'un chatbot féminin controversé.

La Commission de protection des informations personnelles (PIPC) a déclaré que Scatter Lab, une startup basée à Séoul, a été condamnée à payer 103,3 millions de wons (92 900 dollars) de pénalités - une pénalité supplémentaire de 55,5 millions de wons et une amende administrative de 47,8 millions de wons - pour avoir utilisé illégalement les informations personnelles de ses clients dans le développement et le fonctionnement de son service de chatbot basé sur l'intelligence artificielle appelé "Lee Luda".

C'est la première fois en Corée du Sud que le gouvernement sanctionne l'utilisation aveugle d'informations personnelles par des entreprises utilisant la technologie de l'IA.

Scatter Lab est accusé d'avoir utilisé les 9,4 milliards de conversations KakaoTalk d'environ 600 000 personnes collectées à partir de ses applications d'analyse émotionnelle Science of Love et Text At dans le processus de développement et d'exploitation du service de chatbot Lee Luda sans obtenir leur consentement préalable.

L'entreprise est également critiquée pour ne pas avoir supprimé ou encodé les noms, numéros de téléphone portable et adresses personnelles des utilisateurs de l'application avant de les utiliser dans le développement de ses algorithmes d'apprentissage de chatbot IA.

De plus, le chatbot Lee Luda a été programmé pour sélectionner et prononcer l'une des quelque 100 millions de phrases de conversation KakaoTalk de femmes dans la vingtaine, a déclaré le PIPC.

Scatter Lab a déclaré qu'il assume l'entière responsabilité et prend des mesures pour éviter que cela ne se reproduise.

"Nous ressentons un profond sentiment de responsabilité sociale en tant qu'entreprise de technologie d'intelligence artificielle face à la nécessité de s'engager dans un traitement approprié des informations personnelles dans le cadre du développement de technologies et de services connexes", a déclaré la société dans un communiqué de presse mercredi soir.

"Sur la décision du PIPC, non seulement nous mettrons activement en œuvre les mesures correctives proposées par le PIPC, mais nous nous efforcerons également de nous conformer à la loi et aux directives de l'industrie relatives au traitement des informations personnelles", a déclaré la société.

Pour éviter que cela ne se reproduise, la société a déclaré qu'elle prenait diverses mesures dans le cadre de normes plus strictes, notamment le travail visant à restreindre les services pour les mineurs de moins de 14 ans et d'autres mises à niveau pour renforcer la protection des données personnelles.

Le service de chatbot Lee Luda a attiré plus de 750 000 utilisateurs en seulement trois semaines après son lancement le 23 décembre, mais Scatter Lab a suspendu le service basé sur Facebook le mois suivant en raison de plaintes concernant son langage discriminatoire et offensant contre les minorités sexuelles.

Le PIPC a déclaré que Scatter Lab a utilisé les informations personnelles collectées à partir de ses applications Science of Love et Text At au-delà de l'objectif de la collecte.

L'entreprise est également accusée d'avoir collecté les informations personnelles d'environ 200 000 enfants de moins de 14 ans sans avoir obtenu le consentement de leurs parents ou tuteurs dans le processus de développement et d'exploitation de ses services.

Scatter Lab n'a fixé aucune limite d'âge pour le recrutement d'abonnés pour ses services d'application et a collecté 48 000 informations personnelles sur les enfants via Text At, 120 000 informations sur les enfants de Science of Love et 39 000 informations sur les enfants de Lee Luda, a indiqué la commission.

"Cette affaire est significative dans la mesure où les entreprises ne sont pas autorisées à utiliser les informations personnelles collectées pour des services spécifiques sans distinction pour d'autres services sans obtenir le consentement explicite des personnes concernées", a déclaré le président du PIPC, Yoon Jong-in.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd