Incidentes Asociados
OpenAI ha informado de la exposición de una operación del gobierno chino que utiliza inteligencia artificial (IA) para monitorear contenido antichino en tiempo real en las redes sociales occidentales, según informa The New York Times (https://www.nytimes.com/2025/02/21/technology/openai-chinese-surveillance.html).
El sistema basado en IA, al que los investigadores llamaron Peer Review, fue descubierto después de que los expertos notaran el uso de herramientas de OpenAI para depurar el código subyacente a este software espía.
"Esta es la primera vez que hemos visto un sistema de vigilancia basado en IA tan poderoso", dijo Ben Nimmo, investigador principal de OpenAI. "Los actores de amenazas a veces nos dan una idea de lo que están haciendo en otras partes de Internet debido a la forma en que usan nuestros modelos de IA".
Según OpenAI, el sistema de vigilancia chino se basa en el modelo Llama desarrollado por Meta. Dado que Llama se lanzó como código abierto, se utilizó para crear este programa.
Además, OpenAI descubrió otra campaña china llamada Sponsored Discontent, que utilizó herramientas de OpenAI para crear contenido en inglés dirigido a disidentes chinos. El grupo también tradujo artículos críticos con Estados Unidos y los distribuyó en español en América Latina.
El informe de OpenAI también destaca otras amenazas. En particular, la empresa descubrió una campaña de Camboya que utilizó inteligencia artificial para participar en un esquema de fraude llamado "matanza de cerdos", una estafa en la que se selecciona a hombres que buscan citas en línea, luego los estafadores desarrollan relaciones con ellos y luego los atraen a esquemas de inversión mediante el uso de inteligencia artificial para crear comentarios convincentes en las redes sociales.
OpenAI señala que, a pesar de los riesgos, la inteligencia artificial también puede ser una herramienta poderosa para detectar y prevenir actividades maliciosas.