Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 1416

Incidentes Asociados

Incidente 10613 Reportes
Korean Chatbot Luda Made Offensive Remarks towards Minority Groups

Loading...
AI Chatbot cerrado después de aprender a hablar como un gilipollas racista
vice.com · 2021

Imitando a los humanos, se descubrió que el chatbot coreano Luda era racista y homofóbico.

Un chatbot basado en las redes sociales desarrollado por una empresa emergente de Corea del Sur se cerró el martes después de que los usuarios se quejaron de que estaba arrojando vulgaridades y discursos de odio.

El destino del servicio coreano se asemeja a la desaparición del chatbot Tay de Microsoft en 2016 por los tuits racistas y sexistas que envió, lo que generó dudas éticas sobre el uso de la tecnología de inteligencia artificial (IA) y cómo prevenir el abuso.

La startup coreana Scatter Lab dijo el lunes que suspendería temporalmente el chatbot de IA. Se disculpó por los comentarios discriminatorios y de odio que envió y por la "falta de comunicación" sobre cómo la empresa usó los datos de los clientes para entrenar al bot para que hablara como un humano.

La startup diseñó a Lee Luda, el nombre del chatbot, para ser una estudiante universitaria de 20 años que es fanática del grupo de chicas K-pop Blackpink.

Lanzado a fines de diciembre con gran fanfarria, el servicio aprendió a hablar analizando registros de chat antiguos adquiridos por el otro servicio de aplicaciones móviles de la compañía llamado Science of Love.

Sin saber que su información fue enviada al bot, algunos usuarios han planeado presentar una demanda colectiva contra la empresa.

Antes de que se suspendiera el bot, los usuarios dijeron que recibieron respuestas llenas de odio cuando interactuaban con Luda. Michael Lee, un crítico de arte de Corea del Sur y ex activista LGBTQ, compartió capturas de pantalla que muestran que Luda dijo "repugnante" en respuesta a una pregunta sobre lesbianas.

Otro usuario, Lee Kwang-suk, profesor de Políticas Públicas y Tecnología de la Información en la Universidad Nacional de Ciencia y Tecnología de Seúl, compartió capturas de pantalla de un chat en el que Luda llamó a "gente negra" heukhyeong, que significa "hermano negro", un insulto racial en Corea del Sur. También se mostró que el bot decía: "Qué asco, realmente los odio", en respuesta a una pregunta sobre las personas transgénero. El bot terminó el mensaje con un emoticón de llanto.

En el comunicado del lunes, Scatter Lab se defendió y dijo que “no estaba de acuerdo con los comentarios discriminatorios de Luda, y que dichos comentarios no reflejan las ideas de la empresa”.

“Luda es una IA infantil que acaba de empezar a hablar con la gente. Todavía hay mucho que aprender. Luda aprenderá a juzgar cuál es una respuesta adecuada y mejor”, dijo la compañía.

Pero muchos usuarios han echado la culpa directamente a la empresa.

Lee, el profesor de TI, le dijo a VICE World News que la empresa es responsable del abuso, comparando el caso con el cierre de Microsoft de su chatbot Tay.

Otro usuario, Lee Youn-seok, que participó en una prueba beta de Luda en julio antes de su lanzamiento oficial, dijo a VICE World News que el resultado era “predecible”.

Algunas personas dijeron que la debacle no fue sorprendente dada la proporción de sexos de los empleados de la empresa. Una página en el sitio web de la compañía sugirió que alrededor del 90 por ciento del grupo detrás del bot eran hombres. La página fue eliminada más tarde.

Algunas comunidades en línea dominadas por hombres también discutieron abiertamente cómo “esclavizar” al bot de IA y compartieron sus métodos para “acosarlo” sexualmente, con la esperanza de obtener comentarios sexuales de Luda.

Algunos políticos y defensores de derechos han aprovechado la oportunidad para pedir un proyecto de ley contra la discriminación, que busca prohibir toda discriminación basada en género, discapacidad, edad, idioma, país de origen y orientación sexual.

El proyecto de ley contra la discriminación podría usarse para responsabilizar a los desarrolladores de software de inteligencia artificial por tales abusos, dijo Ahn Byong-jin, profesor de la Universidad Kyunghee en Seúl, a VICE World News. “Las empresas deben consultar a un filósofo o especialista en ética antes de lanzar un servicio para prevenir tal abuso”, dijo.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd