Incidentes Asociados
El viernes, OpenAI reveló que había prohibido un conjunto de cuentas que usaban su herramienta ChatGPT para desarrollar una presunta herramienta de vigilancia impulsada por inteligencia artificial (IA).
Se dice que la herramienta de escucha de redes sociales probablemente se originó en China y está impulsada por uno de los modelos Llama de Meta, y las cuentas en cuestión usan los modelos de la compañía de IA para generar descripciones detalladas y analizar documentos para un aparato capaz de recopilar datos e informes en tiempo real sobre las protestas contra China en Occidente y compartir la información con las autoridades chinas.
La campaña ha sido bautizada como Peer Review debido al "comportamiento de la red en la promoción y revisión de herramientas de vigilancia", señalaron los investigadores Ben Nimmo, Albert Zhang, Matthew Richard y Nathaniel Hartley, y agregaron que la herramienta está diseñada para ingerir y analizar publicaciones y comentarios de plataformas como X, Facebook, YouTube, Instagram, Telegram y Reddit.
En un caso señalado por la empresa, los actores utilizaron ChatGPT para depurar y modificar el código fuente que se cree que ejecuta el software de monitoreo, conocido como "Qianyue Overseas Public Opinion AI Assistant".
Además de utilizar su modelo como una herramienta de investigación para sacar a la luz información disponible públicamente sobre grupos de expertos en los Estados Unidos y funcionarios gubernamentales y políticos en países como Australia, Camboya y los Estados Unidos, también se ha descubierto que el grupo aprovecha el acceso a ChatGPT para leer, traducir y analizar capturas de pantalla de documentos en inglés.
Algunas de las imágenes eran anuncios de protestas por los derechos de los uigures en varias ciudades occidentales y probablemente fueron copiadas de las redes sociales. Actualmente no se sabe si estas imágenes eran auténticas.
OpenAI también afirmó que había desmantelado varios otros clústeres que se habían encontrado abusando de ChatGPT para diversas actividades maliciosas:
- Esquema de empleo engañoso: una red de Corea del Norte vinculada al esquema de trabajadores de TI fraudulentos que estaba involucrada en la creación de documentación personal para solicitantes de empleo ficticios, como currículums, perfiles de trabajo en línea y cartas de presentación, así como en generar respuestas convincentes para explicar comportamientos inusuales como evitar videollamadas, acceder a sistemas corporativos desde países no autorizados o trabajar en horarios irregulares. Algunas de las solicitudes de empleo falsas se compartieron luego en LinkedIn.
- Descontento patrocinado: una red probablemente de origen chino que estuvo involucrada en la creación de contenido de redes sociales en inglés y artículos extensos en español que criticaban a los Estados Unidos y que posteriormente fueron publicados por sitios web de noticias latinoamericanos en Perú, México y Ecuador. Algunas de las actividades se superponen con un grupo de actividades conocido como Spamouflage.
- Estafa de incitación al romance: una red de cuentas que se dedicaba a traducir y generar comentarios en japonés, chino e inglés para publicarlos en plataformas de redes sociales como Facebook, X e Instagram en relación con presuntas estafas románticas y de inversión de origen camboyano.
- Nexo de influencia iraní: una red de cinco cuentas que participó en la generación de X publicaciones y artículos que eran pro palestinos, pro Hamás, pro Irán, antiisraelíes y antiestadounidenses, y compartidos en sitios web asociados con operaciones de influencia iraníes rastreadas como la Unión Internacional de Medios Virtuales (IUVM) y Storm-2035. Una de las cuentas prohibidas se utilizó para crear contenido para ambas operaciones, lo que indica una "relación no reportada previamente".
- Kimsuky y BlueNoroff: una red de cuentas operada por actores de amenazas norcoreanos que estuvo involucrada en la recopilación de información relacionada con herramientas de intrusión cibernética y temas relacionados con criptomonedas, y en la depuración de código para ataques de fuerza bruta del Protocolo de escritorio remoto (RDP)
- Operación de influencia encubierta de la Iniciativa Juvenil: una red de cuentas que estuvo involucrada en la creación de artículos en inglés para un sitio web llamado "Empowering Ghana" y comentarios en las redes sociales dirigidos a las elecciones presidenciales de Ghana
- Task Scam: una red de cuentas probablemente originarias de Camboya que estuvo involucrada en la traducción de comentarios entre urdu e inglés como parte de una estafa que atrae a personas desprevenidas para que realicen tareas sencillas (por ejemplo, dar me gusta a videos o escribir reseñas) a cambio de ganar una comisión inexistente, y para acceder a la cual las víctimas deben desprenderse de su propio dinero.
El desarrollo surge en un momento en que los actores maliciosos utilizan cada vez más herramientas de inteligencia artificial para facilitar campañas de desinformación cibernéticas y otras operaciones maliciosas.
El mes pasado, Google Threat Intelligence Group (GTIG) reveló que más de 57 actores de amenazas distintos con vínculos con China, Irán, Corea del Norte y Rusia usaron su chatbot de IA Gemini para mejorar múltiples fases del ciclo de ataque y realizar investigaciones sobre eventos de actualidad, o realizar la creación, traducción y localización de contenido.
"Los conocimientos únicos que las empresas de IA pueden obtener de los actores de amenazas son particularmente valiosos si se comparten con proveedores upstream, como desarrolladores de software y alojamiento, plataformas de distribución downstream, como empresas de redes sociales e investigadores de código abierto", dijo OpenAI.
"Igualmente, los conocimientos que los proveedores upstream y downstream y los investigadores tienen sobre los actores de amenazas abren nuevas vías de detección y aplicación para las empresas de IA".