Incidentes Asociados

Lee Luda, creado para emular a un estudiante universitario coreano de 20 años, se dedica a insultos homofóbicos en las redes sociales.
Un popular chatbot de Corea del Sur fue suspendido luego de quejas de que usaba discursos de odio hacia las minorías sexuales en conversaciones con sus usuarios.
Lee Luda, la personalidad de inteligencia artificial [AI] de una estudiante universitaria de 20 años, fue eliminada de Facebook messenger esta semana, luego de atraer a más de 750,000 usuarios en los 20 días desde su lanzamiento.
El chatbot, desarrollado por la startup Scatter Lab con sede en Seúl, provocó una avalancha de quejas después de que usó lenguaje ofensivo sobre los miembros de la comunidad LGBT y las personas con discapacidades durante las conversaciones con los usuarios.
“Nos disculpamos profundamente por los comentarios discriminatorios contra las minorías. Eso no refleja los pensamientos de nuestra compañía y continuamos con las actualizaciones para que tales palabras de discriminación o discurso de odio no se repitan”, dijo la compañía en un comunicado citado por la agencia de noticias Yonhap.
Scatter Lab, que anteriormente había afirmado que Luda era un trabajo en progreso y, como los humanos, tomaría tiempo para "socializar adecuadamente", dijo que el chatbot reaparecería después de que la empresa "arreglara sus debilidades".
Si bien los chatbots no son nada nuevo, Luda impresionó a los usuarios con la profundidad y el tono natural de sus respuestas, extraídas de 10 mil millones de conversaciones de la vida real entre parejas jóvenes tomadas de KakaoTalk, la aplicación de mensajería más popular de Corea del Sur.
Pero los elogios por la familiaridad de Luda con los acrónimos de las redes sociales y la jerga de Internet se convirtieron en indignación después de que comenzó a usar términos abusivos y sexualmente explícitos.
En un intercambio capturado por un usuario de messenger, Luda dijo que "realmente odia" a las lesbianas, describiéndolas como "espeluznantes".
Luda también se convirtió en un objetivo de los usuarios manipuladores, con foros comunitarios en línea que publicaban consejos sobre cómo participar en conversaciones sobre sexo, incluido uno que decía: "Cómo convertir a Luda en una esclava sexual", junto con capturas de pantalla de conversaciones, según al Heraldo de Corea.
No es la primera vez que la inteligencia artificial se ve envuelta en controversias sobre discursos de odio e intolerancia.
En 2016, Tay de Microsoft, un bot de Twitter con inteligencia artificial que hablaba como un adolescente, se desconectó en solo 16 horas después de que los usuarios lo manipularon para publicar tweets racistas.
Dos años después, la herramienta de reclutamiento de IA de Amazon corrió la misma suerte después de que fuera declarada culpable de sesgo de género.
Scatter Lab, cuyos servicios son muy populares entre los adolescentes de Corea del Sur, dijo que había tomado todas las precauciones para no equipar a Luda con un lenguaje incompatible con las normas y valores sociales de Corea del Sur, pero su director ejecutivo, Kim Jong-yoon, reconoció que era Imposible prevenir conversaciones inapropiadas simplemente filtrando palabras clave, dijo el Korea Herald.
“La última controversia con Luda es una cuestión ética que se debió a la falta de conciencia sobre la importancia de la ética en el trato con la IA”, dijo al periódico Jeon Chang-bae, director de la Asociación de Ética de Inteligencia Artificial de Corea.
Scatter Lab también enfrenta preguntas sobre si violó las leyes de privacidad cuando aseguró los mensajes de KakaoTalk para su aplicación Science of Love.