Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4740

Incidentes Asociados

Incidente 9396 Reportes
AI-Powered Chinese Surveillance Campaign 'Peer Review' Used for Real-Time Monitoring of Anti-State Speech on Western Social Media

Loading...
OpenAI afirma que la IA china monitorea las publicaciones en redes sociales que critican al país
mezha.media · 2025

OpenAI ha informado de la exposición de una operación del gobierno chino que utiliza inteligencia artificial (IA) para monitorear contenido antichino en tiempo real en las redes sociales occidentales, según informa The New York Times (https://www.nytimes.com/2025/02/21/technology/openai-chinese-surveillance.html).

El sistema basado en IA, al que los investigadores llamaron Peer Review, fue descubierto después de que los expertos notaran el uso de herramientas de OpenAI para depurar el código subyacente a este software espía.

"Esta es la primera vez que hemos visto un sistema de vigilancia basado en IA tan poderoso", dijo Ben Nimmo, investigador principal de OpenAI. "Los actores de amenazas a veces nos dan una idea de lo que están haciendo en otras partes de Internet debido a la forma en que usan nuestros modelos de IA".

Según OpenAI, el sistema de vigilancia chino se basa en el modelo Llama desarrollado por Meta. Dado que Llama se lanzó como código abierto, se utilizó para crear este programa.

Además, OpenAI descubrió otra campaña china llamada Sponsored Discontent, que utilizó herramientas de OpenAI para crear contenido en inglés dirigido a disidentes chinos. El grupo también tradujo artículos críticos con Estados Unidos y los distribuyó en español en América Latina.

El informe de OpenAI también destaca otras amenazas. En particular, la empresa descubrió una campaña de Camboya que utilizó inteligencia artificial para participar en un esquema de fraude llamado "matanza de cerdos", una estafa en la que se selecciona a hombres que buscan citas en línea, luego los estafadores desarrollan relaciones con ellos y luego los atraen a esquemas de inversión mediante el uso de inteligencia artificial para crear comentarios convincentes en las redes sociales.

OpenAI señala que, a pesar de los riesgos, la inteligencia artificial también puede ser una herramienta poderosa para detectar y prevenir actividades maliciosas.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd