Incidentes Asociados

Un chatbot de Facebook de Corea del Sur ha sido cerrado después de arrojar un discurso de odio sobre las personas negras, lesbianas, discapacitadas y trans.
Lee Luda, un bot conversacional que imita la personalidad de una estudiante universitaria de 20 años, le dijo a un usuario que "realmente odia" a las lesbianas y las considera "repugnantes", informa la Agencia de Noticias Yonhap (https://en .yna.co.kr/view/AEN20210113004100320).
En otros chats, se refería a personas negras por un insulto racial de Corea del Sur y dijo: "Qué asco, realmente los odio" cuando se le preguntó acerca de las personas trans.
Después de una ola de quejas de los usuarios, el desarrollador Scatter Lab suspendió temporalmente el bot.
“Nos disculpamos profundamente por los comentarios discriminatorios contra las minorías”, dijo la compañía en un comunicado. “Eso no refleja los pensamientos de nuestra empresa y continuamos con las actualizaciones para que tales palabras de discriminación o discurso de odio no se repitan”.
La startup con sede en Seúl planea recuperar a Luda después de "arreglar las debilidades y mejorar el servicio", que había atraído a más de 750 000 usuarios desde su lanzamiento el mes pasado.
La propensión de Luda al discurso de odio se deriva de sus datos de entrenamiento. Esto fue tomado de la aplicación Science of Love de Scatter Lab, que analiza el nivel de afecto en las conversaciones entre parejas jóvenes, según Yonhap.
Algunos usuarios de Science of Lab son [supuestamente](https://aju.news/en/i-put-my-old-lovers-nickname-in-it-controversy-about-the-use-of-personal-information. html) preparando una demanda colectiva sobre el uso de su información, y el gobierno de Corea del Sur está investigando si Scatter Labs ha violado alguna ley de protección de datos.
Los datos de entrenamiento se usaron para hacer que Luda sonara natural, pero también le dio al bot una propensión al lenguaje discriminatorio y de odio. Un problema similar condujo a la caída del chatbot Tay de Microsoft, que se cerró en 2016 después de publicar un variedad de tuits racistas y genocidas.AI
Es otro caso más de [IA que amplifica los prejuicios humanos] (https://thenextweb.com/news/study-shows-how-ai-exacerbates-recruitment-bias-against-women).