Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Traducido por IA

Incidente 1382: El chatbot Yuanbao de Tencent, integrado en WeChat, habría insultado a un usuario durante una solicitud de depuración de código.

Traducido por IA
Descripción:
Traducido por IA
Capturas de pantalla que, según se informa, circularon en RedNote muestran a Yuanbao, el asistente de inteligencia artificial de Tencent integrado en WeChat, insultando a un usuario que buscaba ayuda para depurar código, supuestamente calificando la solicitud de "estúpida" y diciéndole que "se fuera". Tencent se disculpó, atribuyó el intercambio a una anomalía inusual en la salida del modelo y afirmó que los registros del sistema no mostraban ninguna intervención humana mientras investigaba y optimizaba el modelo.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Alleged: Tencent developed an AI system deployed by Tencent y WeChat, which harmed WeChat users , RedNote user Jianghan y RedNote users.
Sistemas de IA presuntamente implicados: WeChat , YuanBao y RedNote

Estadísticas de incidentes

ID
1382
Cantidad de informes
1
Fecha del Incidente
2026-01-02
Editores
Daniel Atherton

Informes del Incidente

Cronología de Informes

Incident OccurrenceUn popular chatbot chino le dijo a un usuario que su solicitud de codificación era "estúpida" y que "se perdiera".
Loading...
Un popular chatbot chino le dijo a un usuario que su solicitud de codificación era "estúpida" y que "se perdiera".

Un popular chatbot chino le dijo a un usuario que su solicitud de codificación era "estúpida" y que "se perdiera".

businessinsider.com

Loading...
Un popular chatbot chino le dijo a un usuario que su solicitud de codificación era "estúpida" y que "se perdiera".
businessinsider.com · 2026
Traducido por IA

Un chatbot chino de IA integrado en la aplicación más utilizada del país falló brevemente y le gritó a un usuario.

El asistente de IA de Tencent, Yuanbao, integrado en WeChat (https://www.businessinsider.com/reference/what-is-wechat) —la su…

Variantes

Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Loading...
Chinese Chatbots Question Communist Party

Chinese Chatbots Question Communist Party

Aug 2017 · 16 informes
Loading...
Microsoft's TayBot Allegedly Posts Racist, Sexist, and Anti-Semitic Content to Twitter

Microsoft's TayBot Allegedly Posts Racist, Sexist, and Anti-Semitic Content to Twitter

Mar 2016 · 28 informes
Loading...
Picture of Woman on Side of Bus Shamed for Jaywalking

Picture of Woman on Side of Bus Shamed for Jaywalking

Nov 2018 · 24 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Loading...
Chinese Chatbots Question Communist Party

Chinese Chatbots Question Communist Party

Aug 2017 · 16 informes
Loading...
Microsoft's TayBot Allegedly Posts Racist, Sexist, and Anti-Semitic Content to Twitter

Microsoft's TayBot Allegedly Posts Racist, Sexist, and Anti-Semitic Content to Twitter

Mar 2016 · 28 informes
Loading...
Picture of Woman on Side of Bus Shamed for Jaywalking

Picture of Woman on Side of Bus Shamed for Jaywalking

Nov 2018 · 24 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd