Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Incidente 106: Korean Chatbot Luda Made Offensive Remarks towards Minority Groups

Descripción: A Korean interactive chatbot was shown in screenshots to have used derogatory and bigoted language when asked about lesbians, Black people, and people with disabilities.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Alleged: Scatter Lab developed an AI system deployed by Facebook Messenger, which harmed Korean Facebook Messenger users , Korean people of gender minorities y Korean people with disabilities.

Estadísticas de incidentes

ID
106
Cantidad de informes
13
Fecha del Incidente
2020-12-23
Editores
Sean McGregor, Khoa Lam
Applied Taxonomies
GMF, CSETv1, MIT

Clasificaciones de la Taxonomía CSETv1

Detalles de la Taxonomía

Incident Number

The number of the incident in the AI Incident Database.
 

106

Special Interest Intangible Harm

An assessment of whether a special interest intangible harm occurred. This assessment does not consider the context of the intangible harm, if an AI was involved, or if there is characterizable class or subgroup of harmed entities. It is also not assessing if an intangible harm occurred. It is only asking if a special interest intangible harm occurred.
 

yes

Date of Incident Year

The year in which the incident occurred. If there are multiple harms or occurrences of the incident, list the earliest. If a precise date is unavailable, but the available sources provide a basis for estimating the year, estimate. Otherwise, leave blank. Enter in the format of YYYY
 

2021

Date of Incident Month

The month in which the incident occurred. If there are multiple harms or occurrences of the incident, list the earliest. If a precise date is unavailable, but the available sources provide a basis for estimating the month, estimate. Otherwise, leave blank. Enter in the format of MM
 

01

Estimated Date

“Yes” if the data was estimated. “No” otherwise.
 

No

Multiple AI Interaction

“Yes” if two or more independently operating AI systems were involved. “No” otherwise.
 

no

Clasificaciones de la Taxonomía GMF

Detalles de la Taxonomía

Known AI Goal Snippets

One or more snippets that justify the classification.
 

(Snippet Text: Interactive chatbot ‘Luda,’ subjected to sexual harassment and taught hate speech  

, Related Classifications: Chatbot)

Clasificaciones de la Taxonomía MIT

Machine-Classified
Detalles de la Taxonomía

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

1.2. Exposure to toxic content

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. Discrimination and Toxicity

Entity

Which, if any, entity is presented as the main cause of the risk
 

AI

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Unintentional

Informes del Incidente

Cronología de Informes

Incident Occurrence+4
El CEO dice que el controvertido chatbot de IA 'Luda' socializará a tiempo
+2
Chatbot surcoreano 'Lee Luda' asesinado por escupir odio
Chatbot de IA sumido en disputa legal sobre recopilación de datosGrupos cívicos presentan petición sobre violaciones de derechos humanos por chatbot LudaAI Chatbot 'Lee Luda' y ética de datosUn chatbot de Corea del Sur muestra lo descuidadas que pueden ser las empresas tecnológicas con los datos de los usuarios(AMPLIACIÓN) Desarrollador de servicio de chatbot de IA multado por violación masiva de datos personales
El CEO dice que el controvertido chatbot de IA 'Luda' socializará a tiempo

El CEO dice que el controvertido chatbot de IA 'Luda' socializará a tiempo

koreaherald.com

AI Chatbot cerrado después de aprender a hablar como un gilipollas racista

AI Chatbot cerrado después de aprender a hablar como un gilipollas racista

vice.com

El controvertido chatbot de inteligencia artificial de Corea, Luda, se cerrará temporalmente

El controvertido chatbot de inteligencia artificial de Corea, Luda, se cerrará temporalmente

pulsenews.co.kr

(News Focus) La controversia de Chatbot Luda deja preguntas sobre la ética de la IA y la recopilación de datos

(News Focus) La controversia de Chatbot Luda deja preguntas sobre la ética de la IA y la recopilación de datos

en.yna.co.kr

Chatbot de IA de Corea del Sur retirado de Facebook después de un discurso de odio hacia las minorías

Chatbot de IA de Corea del Sur retirado de Facebook después de un discurso de odio hacia las minorías

theguardian.com

Chatbot surcoreano 'Lee Luda' asesinado por escupir odio

Chatbot surcoreano 'Lee Luda' asesinado por escupir odio

inputmag.com

Chatbot cerrado después de decir que 'odia a las lesbianas' y usar insultos racistas

Chatbot cerrado después de decir que 'odia a las lesbianas' y usar insultos racistas

thenextweb.com

Chatbot que salió mal inicia conversaciones sobre la ética de la IA en Corea del Sur

Chatbot que salió mal inicia conversaciones sobre la ética de la IA en Corea del Sur

thediplomat.com

Chatbot de IA sumido en disputa legal sobre recopilación de datos

Chatbot de IA sumido en disputa legal sobre recopilación de datos

koreaherald.com

Grupos cívicos presentan petición sobre violaciones de derechos humanos por chatbot Luda

Grupos cívicos presentan petición sobre violaciones de derechos humanos por chatbot Luda

koreaherald.com

AI Chatbot 'Lee Luda' y ética de datos

AI Chatbot 'Lee Luda' y ética de datos

medium.com

Un chatbot de Corea del Sur muestra lo descuidadas que pueden ser las empresas tecnológicas con los datos de los usuarios

Un chatbot de Corea del Sur muestra lo descuidadas que pueden ser las empresas tecnológicas con los datos de los usuarios

slate.com

(AMPLIACIÓN) Desarrollador de servicio de chatbot de IA multado por violación masiva de datos personales

(AMPLIACIÓN) Desarrollador de servicio de chatbot de IA multado por violación masiva de datos personales

en.yna.co.kr

El CEO dice que el controvertido chatbot de IA 'Luda' socializará a tiempo
koreaherald.com · 2021
Traducido por IA

Chatbot interactivo 'Luda', sujeto a acoso sexual y enseña discurso de odio

La firma coreana Scatter Lab defendió su chatbot Lee Luda en respuesta a las llamadas para finalizar el servicio después de que el bot comenzara a enviar comentario…

AI Chatbot cerrado después de aprender a hablar como un gilipollas racista
vice.com · 2021
Traducido por IA

Imitando a los humanos, se descubrió que el chatbot coreano Luda era racista y homofóbico.

Un chatbot basado en las redes sociales desarrollado por una empresa emergente de Corea del Sur se cerró el martes después de que los usuarios se que…

El controvertido chatbot de inteligencia artificial de Corea, Luda, se cerrará temporalmente
pulsenews.co.kr · 2021
Traducido por IA

El chatbot de inteligencia artificial de Corea del Sur, Lee Luda (Luda), será suspendido temporalmente después de ser criticado por sus declaraciones discriminatorias y vulgares, así como por acusaciones de violación de la privacidad.

"Regr…

(News Focus) La controversia de Chatbot Luda deja preguntas sobre la ética de la IA y la recopilación de datos
en.yna.co.kr · 2021
Traducido por IA

Seúl, 13 de enero (Yonhap) -- Los chatbots de hoy en día son más inteligentes, más receptivos y más útiles en las empresas de todos los sectores, y las herramientas impulsadas por inteligencia artificial evolucionan constantemente para conv…

Chatbot de IA de Corea del Sur retirado de Facebook después de un discurso de odio hacia las minorías
theguardian.com · 2021
Traducido por IA

Lee Luda, creado para emular a un estudiante universitario coreano de 20 años, se dedica a insultos homofóbicos en las redes sociales.

Un popular chatbot de Corea del Sur fue suspendido luego de quejas de que usaba discursos de odio hacia l…

Chatbot surcoreano 'Lee Luda' asesinado por escupir odio
inputmag.com · 2021
Traducido por IA

El bot dijo que "realmente odia" a las lesbianas, entre otras cosas horribles.

Un chatbot con la personalidad de una estudiante universitaria de 20 años ha sido cerrado por usar una gama impactante de discurso de odio, que incluye decirle a…

Chatbot cerrado después de decir que 'odia a las lesbianas' y usar insultos racistas
thenextweb.com · 2021
Traducido por IA

Un chatbot de Facebook de Corea del Sur ha sido cerrado después de arrojar un discurso de odio sobre las personas negras, lesbianas, discapacitadas y trans.

Lee Luda, un bot conversacional que imita la personalidad de una estudiante univers…

Chatbot que salió mal inicia conversaciones sobre la ética de la IA en Corea del Sur
thediplomat.com · 2021
Traducido por IA

El chatbot de IA "Luda" provocó un debate necesario sobre la ética de la IA, ya que Corea del Sur pone un nuevo énfasis en la tecnología.

En la película de 2013 de Spike Jonze, “Her”, la protagonista se enamora de un sistema operativo, lo q…

Chatbot de IA sumido en disputa legal sobre recopilación de datos
koreaherald.com · 2021
Traducido por IA

El chatbot basado en inteligencia artificial Lee Luda, que terminó este mes en una controversia ética y de recopilación de datos, enfrenta demandas por cargos de violación de información personal.

El viernes, alrededor de 400 personas prese…

Grupos cívicos presentan petición sobre violaciones de derechos humanos por chatbot Luda
koreaherald.com · 2021
Traducido por IA

Los grupos cívicos de Corea del Sur presentaron el miércoles una petición ante el organismo de control de derechos humanos del país sobre un chatbot de inteligencia artificial ahora suspendido por su lenguaje prejuicioso y ofensivo contra l…

AI Chatbot 'Lee Luda' y ética de datos
medium.com · 2021
Traducido por IA

El caso de Lee Luda ha despertado la atención del público sobre la gestión de datos personales y la IA en Corea del Sur.

Lee Luda, un chatbot de IA con tono natural

En diciembre pasado, una empresa emergente de IA en Corea del Sur, ScatterL…

Un chatbot de Corea del Sur muestra lo descuidadas que pueden ser las empresas tecnológicas con los datos de los usuarios
slate.com · 2021
Traducido por IA

“Estoy cautivado por una sensación de miedo que nunca había experimentado en toda mi vida…”, escribió un usuario llamado Heehit en una reseña de Google Play de una aplicación llamada Science of Love. Esta revisión se escribió justo después …

(AMPLIACIÓN) Desarrollador de servicio de chatbot de IA multado por violación masiva de datos personales
en.yna.co.kr · 2021
Traducido por IA

Seúl, 28 de abril (Yonhap) -- El organismo de control de protección de datos de Corea del Sur ha impuesto, este miércoles, una fuerte sanción monetaria a una startup por filtrar una cantidad masiva de información personal en el proceso de d…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

TayBot

Danger, danger! 10 alarming examples of AI gone wild

Mar 2016 · 28 informes
Russian Chatbot Supports Stalin and Violence

Russian AI chatbot found supporting Stalin and violence two weeks after launch

Oct 2017 · 5 informes
Twitter’s Image Cropping Tool Allegedly Showed Gender and Racial Bias

Twitter's Photo Crop Algorithm Favors White Faces and Women

Sep 2020 · 5 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

TayBot

Danger, danger! 10 alarming examples of AI gone wild

Mar 2016 · 28 informes
Russian Chatbot Supports Stalin and Violence

Russian AI chatbot found supporting Stalin and violence two weeks after launch

Oct 2017 · 5 informes
Twitter’s Image Cropping Tool Allegedly Showed Gender and Racial Bias

Twitter's Photo Crop Algorithm Favors White Faces and Women

Sep 2020 · 5 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 1420c8e