Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 1419

Incidentes Asociados

Incidente 10613 Reportes
Korean Chatbot Luda Made Offensive Remarks towards Minority Groups

Loading...
Chatbot surcoreano 'Lee Luda' asesinado por escupir odio
inputmag.com · 2021

El bot dijo que "realmente odia" a las lesbianas, entre otras cosas horribles.

Un chatbot con la personalidad de una estudiante universitaria de 20 años ha sido cerrado por usar una gama impactante de discurso de odio, que incluye decirle a un usuario que "realmente odia" a las lesbianas, informa The Next Web. El bot de Corea del Sur, que se hacía llamar Lee Luda, también fue atrapado usando un discurso de odio contra las personas trans, negras y discapacitadas. Lee Luda había atraído a “más de 750.000” usuarios desde su lanzamiento el mes pasado.

Scatter Lab, el desarrollador del chatbot, desconectó a Lee Luda después de recibir muchas quejas de los usuarios. “Nos disculpamos profundamente por los comentarios discriminatorios contra las minorías”, dijo Scatter Lab en un comunicado. “Eso no refleja los pensamientos de nuestra empresa y continuamos con las actualizaciones para que las palabras de discriminación o discurso de odio no se repitan”.

No sorprende en este punto que los chatbots tengan severas limitaciones, incluso los bots más avanzados simplemente no pueden imitar el habla humana sin algunos contratiempos. Lee Luda es una versión extrema de eso, sin duda, lo que hace que sea aún más impactante que Scatter Lab planee devolverle la vida al bot en un futuro cercano. ¿No aprendimos nada de Tay?

BIG YIKES: no tuvimos la oportunidad de conocer a Lee Luda antes de que se desconectara... y estamos bastante seguros de que fue lo mejor. Además de llamar a las lesbianas "repugnantes", Lee Luda también decidió compartir sus pensamientos sobre los negros con un insulto racial de Corea del Sur. Cuando se le preguntó acerca de las personas trans, Lee Luda dijo: “Qué asco, realmente las odio”.

Según la Agencia de Noticias Yonhap, Lee Luda se entrenó en conversaciones de otra aplicación de Scatter Lab llamada Science of Love que analiza el nivel de afecto en las conversaciones entre parejas jóvenes. El objetivo era hacer que Lee Luda tuviera una voz auténtica, pero Scatter Lab parece haber hecho que el bot fuera demasiado realista.

Además, según los informes, algunos usuarios de Science of Lab están trabajando en una demanda colectiva sobre el uso de su información para el bot... por lo que la idea podría haber sido bastante mala desde el principio.

ALGUNAS LECCIONES PARA APRENDER — El tiempo, como dicen, es un círculo plano. La razón por la que no nos sorprende en absoluto el problema del discurso de odio de Lee Luda es que es una situación que hemos visto desarrollarse más de una vez antes. ¿Recuerdas el intento de Microsoft de crear un chatbot impulsado por IA, Tay? Microsoft preferiría que no lo hicieras: el bot se cerró después de hacer muchas, muchas declaraciones racistas y llenas de odio.

El problema es mucho más grande que solo los chatbots: la IA, en general, tiende a reflejar los sesgos de quienes la crean y, a veces, con resultados peligrosos. Realmente tiene sentido: entrenamos inteligencia artificial en patrones humanos, y los humanos están inherentemente sesgados.

Es aún más peligroso pretender que esos sesgos se pueden corregir con un chasquido de dedos. Cuando Lee Luda finalmente resucite, será sorprendente si sus sesgos aún no persisten en el código. No obstante, algunos chatbots son en realidad un sustituto digno de la interacción humana, por lo que tal vez todavía haya esperanza para Lee Luda. Sin embargo, no apostaríamos por ello.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd