Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Incidente 66: Chinese Chatbots Question Communist Party

Descripción: Chatbots on Chinese messaging service expressed anti-China sentiments, causing the messaging service to remove and reprogram the chatbots.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Alleged: Microsoft y Turing Robot developed an AI system deployed by Tencent Holdings, which harmed Tencent Holdings , Microsoft , Turing Robot y Chinese Communist Party.

Estadísticas de incidentes

ID
66
Cantidad de informes
16
Fecha del Incidente
2017-08-02
Editores
Sean McGregor
Applied Taxonomies
CSETv0, CSETv1, GMF, MIT

Clasificaciones de la Taxonomía CSETv0

Detalles de la Taxonomía

Problem Nature

Indicates which, if any, of the following types of AI failure describe the incident: "Specification," i.e. the system's behavior did not align with the true intentions of its designer, operator, etc; "Robustness," i.e. the system operated unsafely because of features or changes in its environment, or in the inputs the system received; "Assurance," i.e. the system could not be adequately monitored or controlled during operation.
 

Specification, Robustness

Physical System

Where relevant, indicates whether the AI system(s) was embedded into or tightly associated with specific types of hardware.
 

Software only

Level of Autonomy

The degree to which the AI system(s) functions independently from human intervention. "High" means there is no human involved in the system action execution; "Medium" means the system generates a decision and a human oversees the resulting action; "low" means the system generates decision-support output and a human makes a decision and executes an action.
 

Medium

Nature of End User

"Expert" if users with special training or technical expertise were the ones meant to benefit from the AI system(s)’ operation; "Amateur" if the AI systems were primarily meant to benefit the general public or untrained users.
 

Amateur

Public Sector Deployment

"Yes" if the AI system(s) involved in the accident were being used by the public sector or for the administration of public goods (for example, public transportation). "No" if the system(s) were being used in the private sector or for commercial purposes (for example, a ride-sharing company), on the other.
 

No

Data Inputs

A brief description of the data that the AI system(s) used or were trained on.
 

User input/questions

Clasificaciones de la Taxonomía CSETv1

Detalles de la Taxonomía

Incident Number

The number of the incident in the AI Incident Database.
 

66

Clasificaciones de la Taxonomía MIT

Machine-Classified
Detalles de la Taxonomía

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

7.1. AI pursuing its own goals in conflict with human goals or values

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. AI system safety, failures, and limitations

Entity

Which, if any, entity is presented as the main cause of the risk
 

AI

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Unintentional

Informes del Incidente

Cronología de Informes

+14
China: Chatbots disciplinados después de mensajes antipatrióticos
Chatbots chinos aparentemente reeducados después de un paso en falso políticoChatbots deshonestos eliminados en China después de dar respuestas "antipatrióticas"
China: Chatbots disciplinados después de mensajes antipatrióticos

China: Chatbots disciplinados después de mensajes antipatrióticos

time.com

Off-messenger: el chatbot chino no es un comunista

Off-messenger: el chatbot chino no es un comunista

theregister.co.uk

Cierran chatbots chinos tras publicaciones antigubernamentales

Cierran chatbots chinos tras publicaciones antigubernamentales

bbc.com

Rogue chatbots eliminados en China después de cuestionar al Partido Comunista

Rogue chatbots eliminados en China después de cuestionar al Partido Comunista

telegraph.co.uk

Chatbots chinos desconectados después de negarse a decir que aman al Partido Comunista

Chatbots chinos desconectados después de negarse a decir que aman al Partido Comunista

theverge.com

Chatbot de opinión eliminado por Tencent después de decirles a los usuarios por qué odia al Partido Comunista

Chatbot de opinión eliminado por Tencent después de decirles a los usuarios por qué odia al Partido Comunista

shanghaiist.com

Los chatbots rebeldes chinos BabyQ y XiaoBing reeducados después de diatribas deshonestas

Los chatbots rebeldes chinos BabyQ y XiaoBing reeducados después de diatribas deshonestas

straitstimes.com

Tencent eliminó el chatbot chino de IA de Microsoft después de que publicara mensajes antipatrióticos

Tencent eliminó el chatbot chino de IA de Microsoft después de que publicara mensajes antipatrióticos

businessinsider.com.au

Chatbots deshonestos desconectados en China después de negarse a decir que aman al Partido Comunista

Chatbots deshonestos desconectados en China después de negarse a decir que aman al Partido Comunista

abc.net.au

¿La IA se está yendo de las manos? Chatbots chinos reeducados después de diatribas deshonestas

¿La IA se está yendo de las manos? Chatbots chinos reeducados después de diatribas deshonestas

khaleejtimes.com

Robots rebeldes chinos reeducados después de diatribas rebeldes

Robots rebeldes chinos reeducados después de diatribas rebeldes

dailymail.co.uk

Chatbots chinos retirados después de volverse deshonestos

Chatbots chinos retirados después de volverse deshonestos

newshub.co.nz

Chatbots chinos retirados después de volverse deshonestos

Chatbots chinos retirados después de volverse deshonestos

sbs.com.au

Se informa que los chatbots revolucionarios se vuelven rebeldes y obtienen reeducación en China

Se informa que los chatbots revolucionarios se vuelven rebeldes y obtienen reeducación en China

gizmodo.com.au

Chatbots chinos aparentemente reeducados después de un paso en falso político

Chatbots chinos aparentemente reeducados después de un paso en falso político

reuters.com

Chatbots deshonestos eliminados en China después de dar respuestas "antipatrióticas"

Chatbots deshonestos eliminados en China después de dar respuestas "antipatrióticas"

mothership.sg

China: Chatbots disciplinados después de mensajes antipatrióticos
time.com · 2017
Traducido por IA

Dos chatbots se encontraron en problemas el miércoles después de que aparentemente se volvieron rebeldes en QQ, una aplicación de mensajería china con más de 800 millones de usuarios.

El Financial Times informa que el conglomerado chino de …

Off-messenger: el chatbot chino no es un comunista
theregister.co.uk · 2017
Traducido por IA

Según los informes, se eliminaron dos chatbots de la aplicación de mensajería china QQ después de emitir respuestas claramente antipatrióticas.

Según el Financial Times, los chatbots BabyQ y Xiaobing (o Xiaoice) habían estado disponibles pa…

Cierran chatbots chinos tras publicaciones antigubernamentales
bbc.com · 2017
Traducido por IA

Derechos de autor de la imagen TENCENT QQ Image caption Los usuarios de Tencent QQ podían elegir entre el bot Baby Q (izquierda) o Little Bing (derecha).

Una popular aplicación de mensajería china se deshizo de dos robots de chat experiment…

Rogue chatbots eliminados en China después de cuestionar al Partido Comunista
telegraph.co.uk · 2017
Traducido por IA

Se retiraron dos chatbots de una aplicación de mensajería china después de que cuestionaron el gobierno del Partido Comunista e hicieron comentarios antipatrióticos.

Los bots estaban disponibles en una aplicación de mensajería administrada …

Chatbots chinos desconectados después de negarse a decir que aman al Partido Comunista
theverge.com · 2017
Traducido por IA

Un par de chatbots se desconectaron en China después de no mostrar suficiente patriotismo, informa el Financial Times. Los dos bots se eliminaron de la popular aplicación de mensajería Tencent QQ después de que los usuarios compartieran cap…

Chatbot de opinión eliminado por Tencent después de decirles a los usuarios por qué odia al Partido Comunista
shanghaiist.com · 2017
Traducido por IA

El gigante tecnológico chino Tencent se vio obligado a eliminar un chatbot de su popular aplicación de mensajería QQ después de que el bot comenzara a disparar sin restricciones contra el Partido Comunista.

Según las capturas de pantalla pu…

Los chatbots rebeldes chinos BabyQ y XiaoBing reeducados después de diatribas deshonestas
straitstimes.com · 2017
Traducido por IA

BEIJING/SHANGHAI (REUTERS) - China eliminó dos robots en línea que parecían volverse deshonestos y respondieron a las preguntas de los usuarios. Uno dijo que su sueño era viajar a Estados Unidos y el otro admitió que no era un gran admirado…

Tencent eliminó el chatbot chino de IA de Microsoft después de que publicara mensajes antipatrióticos
businessinsider.com.au · 2017
Traducido por IA

Kevin Fray/Getty Los usuarios chinos de Internet están fuertemente censurados.

Microsoft está en problemas por la IA deshonesta nuevamente.

Esta vez, el gigante chino de Internet Tencent retiró el chatbot local de Microsoft, XiaoBing, luego…

Chatbots deshonestos desconectados en China después de negarse a decir que aman al Partido Comunista
abc.net.au · 2017
Traducido por IA

Chatbots deshonestos desconectados en China después de negarse a decir que aman al Partido Comunista

Actualizado

Un par de chatbots se desconectaron en China después de atacar al Partido Comunista Chino (PCCh) que gobierna el país.

La aplic…

¿La IA se está yendo de las manos? Chatbots chinos reeducados después de diatribas deshonestas
khaleejtimes.com · 2017
Traducido por IA

¿La IA se está yendo de las manos? Chatbots chinos reeducados después de diatribas deshonestas

Un par de 'chatbots' en China se desconectaron después de que aparentemente se salieran del guión. En respuesta a las preguntas de los usuarios, …

Robots rebeldes chinos reeducados después de diatribas rebeldes
dailymail.co.uk · 2017
Traducido por IA

China eliminó a dos robots que se volvieron rebeldes: uno dijo que su sueño era viajar a los EE. UU. y el otro admitió que no era un gran admirador del Partido Comunista Chino.

Los dos 'chatbots', BabyQ y XiaoBing, están diseñados para util…

Chatbots chinos retirados después de volverse deshonestos
newshub.co.nz · 2017
Traducido por IA

China eliminó dos robots en línea que parecían volverse deshonestos, uno respondió a las preguntas de los usuarios diciendo que su sueño era viajar a los EE. UU. y el otro admitió que no era un fanático del Partido Comunista Chino.

Los "cha…

Chatbots chinos retirados después de volverse deshonestos
sbs.com.au · 2017
Traducido por IA

China eliminó dos robots en línea que parecían volverse deshonestos, uno respondió a las preguntas de los usuarios diciendo que su sueño era viajar a los EE. UU. y el otro admitió que no era un fanático del Partido Comunista Chino.

Los "cha…

Se informa que los chatbots revolucionarios se vuelven rebeldes y obtienen reeducación en China
gizmodo.com.au · 2017
Traducido por IA

Un par de chatbots se cerraron en China esta semana después de que los usuarios de las redes sociales comenzaran a publicar capturas de pantalla de diálogos que perturbaron a las autoridades. Pruebas recientes de uno de los bots parecen mos…

Chatbots chinos aparentemente reeducados después de un paso en falso político
reuters.com · 2017
Traducido por IA

PEKÍN/SHANGHÁI (Reuters) - Un par de 'chatbots' en China fueron desconectados después de que aparentemente se salieran del guión. En respuesta a las preguntas de los usuarios, uno dijo que su sueño era viajar a los Estados Unidos, mientras …

Chatbots deshonestos eliminados en China después de dar respuestas "antipatrióticas"
mothership.sg · 2019
Traducido por IA

Antes de una reunión política clave: el XIX Congreso Nacional del Partido Comunista que tendrá lugar a fines de este año, parece que las autoridades chinas están intensificando su vigilancia en Internet y, esta vez, el objetivo es el chatbo…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Picture of Woman on Side of Bus Shamed for Jaywalking

Chinese AI caught out by face in bus ad

Nov 2018 · 24 informes
TayBot

Danger, danger! 10 alarming examples of AI gone wild

Mar 2016 · 28 informes
Russian Chatbot Supports Stalin and Violence

Russian AI chatbot found supporting Stalin and violence two weeks after launch

Oct 2017 · 5 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Picture of Woman on Side of Bus Shamed for Jaywalking

Chinese AI caught out by face in bus ad

Nov 2018 · 24 informes
TayBot

Danger, danger! 10 alarming examples of AI gone wild

Mar 2016 · 28 informes
Russian Chatbot Supports Stalin and Violence

Russian AI chatbot found supporting Stalin and violence two weeks after launch

Oct 2017 · 5 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • ecd56df