Incidentes Asociados
OpenAI ha prohibido las cuentas de un grupo de usuarios chinos que habían intentado usar ChatGPT para depurar y editar el código de una herramienta de vigilancia de redes sociales con inteligencia artificial, según dijo la compañía el viernes (https://openai.com/global-affairs/disrupting-malicious-uses-of-ai/). La campaña, que OpenAI llama Revisión por pares, vio al grupo incitar a ChatGPT a generar argumentos de venta para un programa que esos documentos sugieren que fue diseñado para monitorear el sentimiento antichino en X, Facebook, YouTube, Instagram y otras plataformas. La operación parece haber estado particularmente interesada en detectar llamados a protestas contra las violaciones de los derechos humanos en China, con la intención de compartir esos conocimientos con las autoridades del país.
"Esta red consistía en cuentas de ChatGPT que operaban en un patrón de tiempo consistente con el horario comercial de China continental, activaban nuestros modelos en chino y usaban nuestras herramientas con un volumen y variedad consistentes con la activación manual, en lugar de la automatización", dijo OpenAI. "Los operadores utilizaron nuestros modelos para corregir las afirmaciones de que sus datos habían sido enviados a las embajadas chinas en el extranjero y a los agentes de inteligencia que monitoreaban las protestas en países como Estados Unidos, Alemania y el Reino Unido".
Según Ben Nimmo, investigador principal de OpenAI, esta fue la primera vez que la empresa descubrió una herramienta de IA de este tipo. "Los actores de amenazas a veces nos dan una idea de lo que están haciendo en otras partes de Internet debido a la forma en que utilizan nuestros modelos de IA", dijo Nimmo a The New York Times.
Gran parte del código de la herramienta de vigilancia parece haberse basado en una versión de código abierto de uno de los modelos Llama de Meta (https://www.engadget.com/ai/meta-says-llamas-usage-grew-tremendously-due-to-the-power-of-open-source-140020454.html). El grupo también parece haber utilizado ChatGPT para generar una revisión de desempeño de fin de año en la que afirma haber escrito correos electrónicos de phishing en nombre de clientes en China.
"Evaluar el impacto de esta actividad requeriría aportes de múltiples partes interesadas, incluidos los operadores de cualquier modelo de código abierto que pueda arrojar luz sobre esta actividad", dijo OpenAI sobre los esfuerzos de la operación para utilizar ChatGPT para editar el código de la herramienta de vigilancia de redes sociales con inteligencia artificial.
Por otra parte, OpenAI dijo que recientemente prohibió una cuenta que usaba ChatGPT para generar publicaciones en redes sociales críticas a Cai Xia, una politóloga y disidente china que vive en Estados Unidos en el exilio. El mismo grupo también usó el chatbot para generar artículos en español críticos con Estados Unidos. Estos artículos fueron publicados por organizaciones de noticias "tradicionales" en América Latina y a menudo se atribuían a un individuo o una empresa china.