Journal des citations pour l'incident 106

Description: A Korean interactive chatbot was shown in screenshots to have used derogatory and bigoted language when asked about lesbians, Black people, and people with disabilities.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique

Statistiques d'incidents

ID
106
Nombre de rapports
13
Date de l'incident
2020-12-23
Editeurs
Sean McGregor, Khoa Lam

Classifications de taxonomie GMF

Détails de la taxonomie

Known AI Goal

Chatbot

Known AI Technology

Autoencoder, Distributional Learning

Known AI Technical Failure

Adversarial Data, Distributional Bias, Unauthorized Data, Inadequate Anonymization, Inappropriate Training Content, Unsafe Exposure or Access

Le PDG déclare que le chatbot AI controversé "Luda" socialisera avec le temps
koreaherald.com · 2021

Le chatbot interactif « Luda », victime de harcèlement sexuel et a enseigné le discours de haine

La société coréenne Scatter Lab a défendu son chatbot Lee Luda en réponse aux appels à mettre fin au service après que le bot a commencé à envo…

AI Chatbot s'arrête après avoir appris à parler comme un connard raciste
vice.com · 2021

Imitant les humains, le chatbot coréen Luda s'est révélé raciste et homophobe.

Un chatbot basé sur les réseaux sociaux développé par une startup sud-coréenne a été fermé mardi après que des utilisateurs se sont plaints qu'il crachait des vu…

Le chatbot AI controversé de Corée, Luda, sera temporairement fermé
pulsenews.co.kr · 2021

Le chatbot IA sud-coréen Lee Luda (Luda) sera temporairement suspendu après avoir été critiqué pour ses déclarations discriminatoires et vulgaires, ainsi que pour des allégations de violation de la vie privée.

"Nous reviendrons avec un serv…

(News Focus) La controverse sur Chatbot Luda laisse des questions sur l'éthique de l'IA et la collecte de données
en.yna.co.kr · 2021

SEOUL, 13 janv. (Yonhap) -- Les chatbots d'aujourd'hui sont plus intelligents, plus réactifs et plus utiles dans les entreprises de tous les secteurs, et les outils basés sur l'intelligence artificielle évoluent constamment pour même deveni…

Le chatbot IA sud-coréen retiré de Facebook après un discours de haine envers les minorités
theguardian.com · 2021

Lee Luda, construit pour imiter un étudiant universitaire coréen de 20 ans, s'est livré à des insultes homophobes sur les réseaux sociaux

Un chatbot sud-coréen populaire a été suspendu après des plaintes selon lesquelles il aurait utilisé u…

Le chatbot sud-coréen 'Lee Luda' tué pour avoir craché de la haine
inputmag.com · 2021

Le bot a dit qu'il "déteste vraiment" les lesbiennes, entre autres choses horribles.

Un chatbot avec le personnage d'une étudiante de 20 ans a été fermé pour avoir utilisé une gamme choquante de discours de haine, notamment en disant à un u…

Chatbot fermé après avoir dit qu'il "déteste les lesbiennes" et utilisé des insultes racistes
thenextweb.com · 2021

Un chatbot sud-coréen sur Facebook a été fermé après avoir craché des discours de haine contre les personnes noires, lesbiennes, handicapées et trans.

Lee Luda, un robot conversationnel qui imite la personnalité d'une étudiante de 20 ans, a…

Chatbot Gone Awry entame des conversations sur l'éthique de l'IA en Corée du Sud
thediplomat.com · 2021

Le chatbot AI "Luda" a déclenché un débat nécessaire sur l'éthique de l'IA alors que la Corée du Sud accorde une nouvelle importance à la technologie.

Dans le film "Her" de Spike Jonze en 2013, le protagoniste tombe amoureux d'un système d'…

Un chatbot IA embourbé dans un différend juridique sur la collecte de données
koreaherald.com · 2021

Le chatbot basé sur l'intelligence artificielle Lee Luda, qui s'est terminé ce mois-ci dans une controverse sur l'éthique et la collecte de données, fait face à des poursuites pour violation d'informations personnelles.

Vendredi, environ 40…

Des groupes civiques déposent une pétition contre les violations des droits de l'homme par le chatbot Luda
koreaherald.com · 2021

Mercredi, des groupes civiques sud-coréens ont déposé une pétition auprès de l'organisme de surveillance des droits de l'homme du pays concernant un chatbot d'intelligence artificielle désormais suspendu pour son langage préjudiciable et of…

AI Chatbot ‘Lee Luda’ et éthique des données
medium.com · 2021

Le cas de Lee Luda a éveillé l'attention du public sur la gestion des données personnelles et l'IA en Corée du Sud.

Lee Luda, un chatbot IA au ton naturel

En décembre dernier, une start-up d'IA en Corée du Sud, ScatterLab, a lancé un chatbo…

Un chatbot sud-coréen montre à quel point les entreprises technologiques peuvent être bâclées avec les données des utilisateurs
slate.com · 2021

"Je suis captivé par un sentiment de peur que je n'ai jamais ressenti de toute ma vie...", a écrit un utilisateur nommé Heehit dans une critique Google Play d'une application appelée Science of Love. Cette critique a été rédigée juste après…

(2e LD) Le développeur d'un service de chatbot IA condamné à une amende pour violation massive de données personnelles
en.yna.co.kr · 2021

SEOUL, 28 avr. (Yonhap) -- L'autorité sud-coréenne de protection des données a infligé ce mercredi une lourde sanction pécuniaire à une startup pour avoir divulgué une quantité massive d'informations personnelles dans le cadre du développem…

Variantes

Une "Variante" est un incident qui partage les mêmes facteurs de causalité, produit des dommages similaires et implique les mêmes systèmes intelligents qu'un incident d'IA connu. Plutôt que d'indexer les variantes comme des incidents entièrement distincts, nous listons les variations d'incidents sous le premier incident similaire soumis à la base de données. Contrairement aux autres types de soumission à la base de données des incidents, les variantes ne sont pas tenues d'avoir des rapports en preuve externes à la base de données des incidents. En savoir plus sur le document de recherche.

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents