Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2034

Incidentes Asociados

Incidente 10613 Reportes
Korean Chatbot Luda Made Offensive Remarks towards Minority Groups

Loading...
El controvertido chatbot de inteligencia artificial de Corea, Luda, se cerrará temporalmente
pulsenews.co.kr · 2021

El chatbot de inteligencia artificial de Corea del Sur, Lee Luda (Luda), será suspendido temporalmente después de ser criticado por sus declaraciones discriminatorias y vulgares, así como por acusaciones de violación de la privacidad.

"Regresaremos con un servicio mejorado después de abordar los problemas", dijo Scatter Lab, la startup coreana que es desarrolladora del bot interactivo, en un comunicado el lunes.

Luda se lanzó el 23 de diciembre como una bot femenina de 20 años que se ejecuta en Facebook Messenger. Su capacidad para entablar conversaciones naturales y realistas llamó rápidamente la atención de la gente en Corea, lo que ayudó a acumular una base de usuarios de 400 000 en menos de un mes.

Pero llegó a los titulares cuando se descubrió que algunos usuarios masculinos lo usaban para tener conversaciones sexuales y compartían consejos sobre cómo convertirlo en un esclavo sexual.

Otras conversaciones mostraron a Luda haciendo comentarios homofóbicos u otros discriminatorios, llamando a los homosexuales "repugnantes" y "espeluznantes".

La compañía se disculpó por los comentarios del robot sobre la comunidad LGBTQ. “Las declaraciones no reflejan los valores fundamentales de la empresa. Estamos trabajando en formas de prevenir este tipo de discurso de odio discriminatorio en el futuro”, dijo Scatter Lab.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd