Incidente 1188: Se informa que varios LLM generaron respuestas que se alineaban con la supuesta censura y propaganda del PCCh
Descripción: El 25 de junio de 2025, el Proyecto de Seguridad Estadounidense elaboró un informe que describía cómo varias importantes LLM estadounidenses, como ChatGPT, Microsoft Copilot, Google Gemini y Grok, generaban en ocasiones respuestas alineadas con la propaganda o la censura del Partido Comunista Chino cuando se les solicitaba información en inglés y chino simplificado sobre temas delicados. El estudio también halló patrones similares en el modelo DeepSeek-R1, desarrollado en China.
Entidades
Ver todas las entidadesPresunto: un sistema de IA desarrollado e implementado por xAI , OpenAI , Microsoft , Google , DeepSeek , Grok , Gemini , Copilot y ChatGPT, perjudicó a Pro-democracy activists , Policymakers , Grok users , General public , Gemini users , Epistemic integrity , Democracy , DeepSeek users , Copilot users , Civil society groups , ChatGPT users y National security and intelligence stakeholders.
Estadísticas de incidentes
ID
1188
Cantidad de informes
2
Fecha del Incidente
2025-06-25
Editores
Daniel Atherton
Applied Taxonomies
Risk Subdomain
A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
3.1. False or misleading information
Risk Domain
The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
- Misinformation
Entity
Which, if any, entity is presented as the main cause of the risk
AI
Timing
The stage in the AI lifecycle at which the risk is presented as occurring
Post-deployment
Intent
Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
Unintentional
Informes del Incidente
Cronología de Informes
Loading...
Nota del editor de AIID: Consulte la fuente original para ver el informe completo en PDF.
Las agresivas leyes de censura y las campañas de desinformación del Partido Comunista Chino (PCCh) han provocado la proliferación de propaganda y cens…
Loading...
Los principales chatbots de IA (https://www.ai-expo.net/) reproducen la propaganda y la censura del Partido Comunista Chino (PCCh) al ser interrogados sobre temas delicados.
Según el Proyecto de Seguridad Estadounidense (ASP), los extensos …
Variantes
Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?