Incidentes Asociados
OpenAI dijo el viernes que había descubierto evidencia de que una operación de seguridad china había construido una herramienta de vigilancia impulsada por inteligencia artificial para recopilar informes en tiempo real sobre publicaciones antichinas en servicios de redes sociales en países occidentales.
Los investigadores de la compañía dijeron que habían identificado esta nueva campaña, a la que llamaron Peer Review, porque alguien que trabajaba en la herramienta utilizó las tecnologías de OpenAI para depurar parte del código informático que la sustenta.
Ben Nimmo, un investigador principal de OpenAI, dijo que esta era la primera vez que la compañía había descubierto una herramienta de vigilancia impulsada por IA de este tipo.
"Los actores de amenazas a veces nos dan una idea de lo que están haciendo en otras partes de Internet debido a la forma en que usan nuestros modelos de IA", dijo Nimmo.
Ha habido crecientes preocupaciones de que la IA pueda usarse para vigilancia, piratería informática, campañas de desinformación y otros fines maliciosos. Aunque investigadores como Nimmo dicen que la tecnología ciertamente puede permitir este tipo de actividades, agregan que la IA puede permitir que se realicen actividades de este tipo. También puede ayudar a identificar y detener este tipo de comportamiento.
El Sr. Nimmo y su equipo creen que la herramienta de vigilancia china se basa en Llama, una tecnología de IA creada por Meta, que hizo pública su tecnología, lo que significa que compartió su trabajo con desarrolladores de software de todo el mundo.
En un informe detallado sobre el uso de la IA con fines maliciosos y engañosos, OpenAI también dijo que había descubierto una campaña china separada, llamada Sponsored Discontent, que utilizó las tecnologías de OpenAI para generar publicaciones en inglés que criticaban a los disidentes chinos.
El mismo grupo, dijo OpenAI, ha utilizado las tecnologías de la empresa para traducir artículos al español antes de distribuirlos en América Latina. Los artículos criticaban a la sociedad y la política de Estados Unidos.
Por otra parte, los investigadores de OpenAI identificaron una campaña, que se cree que tiene su base en Camboya, que utilizó las tecnologías de la empresa para generar y traducir comentarios en las redes sociales que ayudaron a impulsar una estafa conocida como "matanza de cerdos", según el informe. Los comentarios generados por IA se utilizaron para cortejar a los hombres en Internet y enredarlos en un plan de inversión.
(The New York Times ha demandado OpenAI y Microsoft por infracción de derechos de autor de contenido de noticias relacionado con sistemas de IA. OpenAI y Microsoft han negado esas acusaciones).