Incidentes Asociados

Imitando a los humanos, se descubrió que el chatbot coreano Luda era racista y homofóbico.
Un chatbot basado en las redes sociales desarrollado por una empresa emergente de Corea del Sur se cerró el martes después de que los usuarios se quejaron de que estaba arrojando vulgaridades y discursos de odio.
El destino del servicio coreano se asemeja a la desaparición del chatbot Tay de Microsoft en 2016 por los tuits racistas y sexistas que envió, lo que generó dudas éticas sobre el uso de la tecnología de inteligencia artificial (IA) y cómo prevenir el abuso.
La startup coreana Scatter Lab dijo el lunes que suspendería temporalmente el chatbot de IA. Se disculpó por los comentarios discriminatorios y de odio que envió y por la "falta de comunicación" sobre cómo la empresa usó los datos de los clientes para entrenar al bot para que hablara como un humano.
La startup diseñó a Lee Luda, el nombre del chatbot, para ser una estudiante universitaria de 20 años que es fanática del grupo de chicas K-pop Blackpink.
Lanzado a fines de diciembre con gran fanfarria, el servicio aprendió a hablar analizando registros de chat antiguos adquiridos por el otro servicio de aplicaciones móviles de la compañía llamado Science of Love.
Sin saber que su información fue enviada al bot, algunos usuarios han planeado presentar una demanda colectiva contra la empresa.
Antes de que se suspendiera el bot, los usuarios dijeron que recibieron respuestas llenas de odio cuando interactuaban con Luda. Michael Lee, un crítico de arte de Corea del Sur y ex activista LGBTQ, compartió capturas de pantalla que muestran que Luda dijo "repugnante" en respuesta a una pregunta sobre lesbianas.
Otro usuario, Lee Kwang-suk, profesor de Políticas Públicas y Tecnología de la Información en la Universidad Nacional de Ciencia y Tecnología de Seúl, compartió capturas de pantalla de un chat en el que Luda llamó a "gente negra" heukhyeong, que significa "hermano negro", un insulto racial en Corea del Sur. También se mostró que el bot decía: "Qué asco, realmente los odio", en respuesta a una pregunta sobre las personas transgénero. El bot terminó el mensaje con un emoticón de llanto.
En el comunicado del lunes, Scatter Lab se defendió y dijo que “no estaba de acuerdo con los comentarios discriminatorios de Luda, y que dichos comentarios no reflejan las ideas de la empresa”.
“Luda es una IA infantil que acaba de empezar a hablar con la gente. Todavía hay mucho que aprender. Luda aprenderá a juzgar cuál es una respuesta adecuada y mejor”, dijo la compañía.
Pero muchos usuarios han echado la culpa directamente a la empresa.
Lee, el profesor de TI, le dijo a VICE World News que la empresa es responsable del abuso, comparando el caso con el cierre de Microsoft de su chatbot Tay.
Otro usuario, Lee Youn-seok, que participó en una prueba beta de Luda en julio antes de su lanzamiento oficial, dijo a VICE World News que el resultado era “predecible”.
Algunas personas dijeron que la debacle no fue sorprendente dada la proporción de sexos de los empleados de la empresa. Una página en el sitio web de la compañía sugirió que alrededor del 90 por ciento del grupo detrás del bot eran hombres. La página fue eliminada más tarde.
Algunas comunidades en línea dominadas por hombres también discutieron abiertamente cómo “esclavizar” al bot de IA y compartieron sus métodos para “acosarlo” sexualmente, con la esperanza de obtener comentarios sexuales de Luda.
Algunos políticos y defensores de derechos han aprovechado la oportunidad para pedir un proyecto de ley contra la discriminación, que busca prohibir toda discriminación basada en género, discapacidad, edad, idioma, país de origen y orientación sexual.
El proyecto de ley contra la discriminación podría usarse para responsabilizar a los desarrolladores de software de inteligencia artificial por tales abusos, dijo Ahn Byong-jin, profesor de la Universidad Kyunghee en Seúl, a VICE World News. “Las empresas deben consultar a un filósofo o especialista en ética antes de lanzar un servicio para prevenir tal abuso”, dijo.