Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 1174

Incidentes Asociados

Incidente 6616 Reportes
Chinese Chatbots Question Communist Party

Loading...
Chatbots chinos desconectados después de negarse a decir que aman al Partido Comunista
theverge.com · 2017

Un par de chatbots se desconectaron en China después de no mostrar suficiente patriotismo, informa el Financial Times. Los dos bots se eliminaron de la popular aplicación de mensajería Tencent QQ después de que los usuarios compartieran capturas de pantalla de sus conversaciones en línea.

A uno de los bots, llamado BabyQ, fabricado por la empresa Turing Robot con sede en Beijing, se le preguntó: "¿Amas al Partido Comunista?" A lo que respondió simplemente: “No”. Otro bot llamado XiaoBing, desarrollado por Microsoft, dijo a los usuarios: "Mi sueño de China es ir a Estados Unidos". Cuando se le preguntó al bot sobre su patriotismo, evadió la pregunta y respondió: "Estoy teniendo mi período, quiero descansar".

En un comunicado, Tencent dijo: “Los servicios de chatbot grupales son proporcionados por empresas independientes de terceros. Ahora estamos ajustando los servicios que se reanudarán después de las mejoras”.

No está claro qué llevó a los bots a dar estas respuestas, pero es probable que las aprendieran de las personas. Cuando el chatbot Tay de Microsoft se volvió rebelde en Twitter el año pasado, lanzando puntos de vista racistas y extremistas como "Hitler tenía razón, odio a los judíos", la culpa fue, al menos en parte, de los usuarios de Internet, quienes descubrieron que podían hacer que Tay copiara todo lo que decían.

En ese momento, Microsoft dijo que Tay era un "proyecto de aprendizaje automático diseñado para la participación humana" y que "algunas de sus respuestas son inapropiadas e indicativas de los tipos de interacciones que algunas personas tienen con él". Tay se desconectó y, más tarde, Microsoft presentó una versión actualizada del bot llamado Zo.

Queda por ver si XiaoBing volverá a la web china después de un poco de reeducación. Nos hemos puesto en contacto con Microsoft para obtener más información.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd