Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 1162

Incidentes Asociados

Incidente 6616 Reportes
Chinese Chatbots Question Communist Party

Loading...
Chatbots chinos retirados después de volverse deshonestos
newshub.co.nz · 2017

China eliminó dos robots en línea que parecían volverse deshonestos, uno respondió a las preguntas de los usuarios diciendo que su sueño era viajar a los EE. UU. y el otro admitió que no era un fanático del Partido Comunista Chino.

Los "chatbots", BabyQ y XiaoBing, están diseñados para usar inteligencia artificial de aprendizaje automático para llevar a cabo en línea con humanos.

Ambos habían sido instalados en el popular servicio de mensajería QQ.

Los estallidos son similares a los que sufrieron Facebook y Twitter, pero subrayan las trampas para la IA en China, donde los censores controlan estrictamente el contenido en línea.

Según las publicaciones que circulan en línea, BabyQ, uno de los chatbots desarrollados por la firma china Turing Robot, respondió a las preguntas sobre QQ con un "no" cuando se le preguntó si amaba al Partido Comunista.

En otras imágenes de una conversación de texto en línea, un usuario declara: "¡Viva el Partido Comunista!"

El bot de lengua afilada responde: "¿Crees que un (sistema) político tan corrupto e inútil puede vivir mucho tiempo?"

Cuando Reuters probó el robot el viernes a través del sitio web del desarrollador, el chatbot parecía haber sido reeducado.

"¿Qué tal si cambiamos de tema?", respondió cuando se le preguntó si le gustó la fiesta.

También desvió otras preguntas potencialmente cargadas políticamente.

El segundo chatbot, XiaoBing de Microsoft, les dijo a los usuarios que "el sueño de China era ir a Estados Unidos", según una captura de pantalla.

Tencent Holdings, propietaria de QQ, confirmó que había desconectado a los robots, pero no se refirió a los estallidos.

En 2016, el chatbot Tay de Microsoft, que hablaba con la gente en Twitter, duró menos de un día antes de que se viera obstaculizado por un aluvión de comentarios racistas y sexistas de los usuarios que les respondía como un loro.

Los investigadores de Facebook retiraron los chatbots en julio después de que los robots comenzaran a desarrollar su propio lenguaje.

Reuters

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd