Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2356

Incidentes Asociados

Incidente 10613 Reportes
Korean Chatbot Luda Made Offensive Remarks towards Minority Groups

Loading...
Chatbot cerrado después de decir que 'odia a las lesbianas' y usar insultos racistas
thenextweb.com · 2021

Un chatbot de Facebook de Corea del Sur ha sido cerrado después de arrojar un discurso de odio sobre las personas negras, lesbianas, discapacitadas y trans.

Lee Luda, un bot conversacional que imita la personalidad de una estudiante universitaria de 20 años, le dijo a un usuario que "realmente odia" a las lesbianas y las considera "repugnantes", informa la Agencia de Noticias Yonhap (https://en .yna.co.kr/view/AEN20210113004100320).

En otros chats, se refería a personas negras por un insulto racial de Corea del Sur y dijo: "Qué asco, realmente los odio" cuando se le preguntó acerca de las personas trans.

Después de una ola de quejas de los usuarios, el desarrollador Scatter Lab suspendió temporalmente el bot.

“Nos disculpamos profundamente por los comentarios discriminatorios contra las minorías”, dijo la compañía en un comunicado. “Eso no refleja los pensamientos de nuestra empresa y continuamos con las actualizaciones para que tales palabras de discriminación o discurso de odio no se repitan”.

La startup con sede en Seúl planea recuperar a Luda después de "arreglar las debilidades y mejorar el servicio", que había atraído a más de 750 000 usuarios desde su lanzamiento el mes pasado.

La propensión de Luda al discurso de odio se deriva de sus datos de entrenamiento. Esto fue tomado de la aplicación Science of Love de Scatter Lab, que analiza el nivel de afecto en las conversaciones entre parejas jóvenes, según Yonhap.

Algunos usuarios de Science of Lab son [supuestamente](https://aju.news/en/i-put-my-old-lovers-nickname-in-it-controversy-about-the-use-of-personal-information. html) preparando una demanda colectiva sobre el uso de su información, y el gobierno de Corea del Sur está investigando si Scatter Labs ha violado alguna ley de protección de datos.

Los datos de entrenamiento se usaron para hacer que Luda sonara natural, pero también le dio al bot una propensión al lenguaje discriminatorio y de odio. Un problema similar condujo a la caída del chatbot Tay de Microsoft, que se cerró en 2016 después de publicar un variedad de tuits racistas y genocidas.AI

Es otro caso más de [IA que amplifica los prejuicios humanos] (https://thenextweb.com/news/study-shows-how-ai-exacerbates-recruitment-bias-against-women).

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd