Incidentes Asociados
Anthropic ha revelado un ejemplo preocupante de cómo las herramientas de IA pueden utilizarse como arma para escalar operaciones de influencia, según un informe de The Hacker News. La compañía descubrió que su chatbot Claude se utilizó para crear y gestionar una red de personajes con temática política en Facebook y X. Estos personajes fueron diseñados para interactuar con usuarios reales y amplificar narrativas alineadas con los intereses de países como los Emiratos Árabes Unidos, Irán, Kenia y algunas naciones europeas. La operación se centró menos en el contenido viral y más en la interacción sostenida a través de mensajes políticos moderados.
Lo que destacó en este caso fue el papel de Claude no solo en la generación de contenido, sino también en la orquestación del comportamiento del bot. El chatbot se utilizó para decidir cuándo y cómo los bots de redes sociales comentar ían, darían "me gusta" o compartirían contenido. Generó publicaciones en idiomas locales, imitó el humor y el sarcasmo de forma humana, y aprovechó datos JSON estructurados para mantener la coherencia en diferentes plataformas. Los investigadores afirman que la campaña refleja un nivel de organización similar al de los servicios comerciales ofrecidos transfronterizamente.
Anthropic también descubrió un uso indebido adicional de Claude vinculado a actividades cibercriminales. Un actor lo utilizó para extraer credenciales filtradas y crear herramientas de ataque de fuerza bruta dirigidas a sistemas conectados a internet. Otro utilizó el modelo de IA para analizar datos de los registros de Telegram y automatizar la generación de scripts. Estos casos reflejan cómo se pueden manipular las herramientas de IA para reducir las barreras a la hora de realizar ciberataques sofisticados, especialmente para actores de amenazas novatos.
Dos ejemplos más ilustran el creciente riesgo. Una campaña mejoró el contenido de estafas laborales dirigidas a solicitantes de empleo de Europa del Este, mientras que en otra, un atacante poco cualificado creó malware con asistencia de IA. Estos casos resaltan cómo se está integrando la IA en los flujos de trabajo de amenazas en múltiples dominios (desde la influencia social hasta el robo de credenciales) y aumentan la urgencia de implementar medidas de protección que aborden tanto el uso indebido social como el técnico.