Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 5142

Incidentes Asociados

Incidente 10545 Reportes
Anthropic Report Details Claude Misuse for Influence Operations, Credential Stuffing, Recruitment Fraud, and Malware Development

Loading...
Claude AI explotado para operar más de 100 personajes políticos falsos en una campaña de influencia global
thehackernews.com · 2025

La empresa de inteligencia artificial (IA) Anthropic ha revelado que actores de amenazas desconocidos utilizaron su chatbot Claude para una operación de "influencia como servicio" con el fin de interactuar con cuentas auténticas en Facebook y X.

Se dice que esta sofisticada actividad, etiquetada como motivada económicamente, utilizó su herramienta de IA para orquestar 100 perfiles distintos en ambas plataformas de redes sociales, creando una red de "cuentas políticamente alineadas" que interactuaron con decenas de miles de cuentas auténticas.

La operación, ahora interrumpida, según los investigadores de Anthropic, priorizó la persistencia y la longevidad sobre la vitalidad y buscó amplificar perspectivas políticas moderadas que apoyaban o socavaban los intereses de Europa, Irán, los Emiratos Árabes Unidos (EAU) y Kenia.

Estos incluían la promoción de los EAU. como un entorno empresarial superior, a la vez que se mostraba crítico con los marcos regulatorios europeos, centrándose en narrativas de seguridad energética para el público europeo y narrativas de identidad cultural para el público iraní.

Los esfuerzos también impulsaron narrativas de apoyo a figuras albanesas y críticas a figuras de la oposición en un país europeo no especificado, así como iniciativas de desarrollo y figuras políticas en Kenia. Estas operaciones de influencia son consistentes con campañas afiliadas al estado, aunque se desconoce quiénes estaban detrás de ellas, añadió.

"Lo especialmente novedoso es que esta operación utilizó a Claude no solo para la generación de contenido, sino también para decidir cuándo las cuentas de bots de redes sociales comentarían, darían "me gusta" o compartirían publicaciones de usuarios auténticos", señaló la compañía.

"Claude fue utilizado como orquestador, decidiendo qué acciones debían tomar las cuentas de bots de redes sociales en función de perfiles con motivaciones políticas".

A pesar del uso de Claude como responsable de la toma de decisiones de interacción táctica, el chatbot se utilizó para generar respuestas apropiadas con alineamiento político en la voz y el idioma nativo del perfil, y para crear sugerencias para dos herramientas populares de generación de imágenes.

Se cree que la operación es obra de un servicio comercial que atiende a diferentes clientes en varios países. Se han identificado al menos cuatro campañas distintas utilizando este marco programático.

"La operación implementó un enfoque altamente estructurado basado en JSON para la gestión de perfiles, lo que le permitió mantener la continuidad entre plataformas y establecer patrones de interacción consistentes que imitan el comportamiento humano real", afirmaron los investigadores Ken Lebedev, Alex Moix y Jacob Klein.

"Mediante este marco programático, los operadores pudieron estandarizar y escalar eficientemente sus esfuerzos, además de permitir el seguimiento y la actualización sistemáticos de los atributos de los perfiles, el historial de interacción y los temas narrativos en múltiples cuentas simultáneamente".

[](h [http://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEg-1vRw02sq1ySppyUAUSf83eVbtG4q4X-6vQlxuMC53EfE89yGX75bRY64fsgzVh9lNaL4ra1s9KXz1MZ9GAczDZbnJ1reeey9CApPUn3qlcmSOVOUqMRb1Epq6G30VRn5fghodeAqNtOeAn_sptUtzXRmL9foKw-UinpooSsttCWzBFgFoxhyphenhyphenVgoeXcAh/s728-rw-e365/ai-tool.jpg]

Otro Un aspecto interesante de la campaña fue que instruyó estratégicamente a las cuentas automatizadas para que respondieran con humor y sarcasmo a las acusaciones de otras cuentas de que podrían ser bots.

Anthropic afirmó que la operación pone de relieve la necesidad de nuevos marcos para evaluar las operaciones de influencia que giran en torno al desarrollo de relaciones y la integración comunitaria. También advirtió que actividades maliciosas similares podrían volverse comunes en los próximos años a medida que la IA reduzca aún más las barreras para llevar a cabo campañas de influencia.

Por otra parte, la compañía señaló que había prohibido a un actor de amenazas sofisticado que utilizaba sus modelos para extraer contraseñas y nombres de usuario filtrados asociados a cámaras de seguridad e idear métodos para atacar por fuerza bruta a objetivos conectados a internet utilizando las credenciales robadas.

El actor de amenazas también empleó a Claude para procesar publicaciones de registros de robo de información publicados en Telegram, crear scripts para extraer URLs objetivo de sitios web y mejorar sus propios sistemas para optimizar la funcionalidad de búsqueda.

A continuación, se enumeran otros dos casos de uso indebido detectados por Anthropic en marzo de 2025:

  • Una campaña de fraude de contratación que utilizó a Claude para enriquecer el contenido de estafas dirigidas a solicitantes de empleo en países de Europa del Este.
  • Un actor novato que utilizó a Claude para mejorar sus capacidades técnicas y desarrollar malware avanzado, superior a su nivel de experiencia, con la capacidad de escanear la web oscura y generar cargas útiles maliciosas indetectables que pueden evadir los controles de seguridad y mantener acceso persistente a largo plazo a sistemas comprometidos.

"Este caso ilustra cómo la IA puede potencialmente aplanar la curva de aprendizaje de los actores maliciosos, permitiendo a personas con conocimientos técnicos limitados desarrollar herramientas sofisticadas y potencialmente acelerar su progresión desde actividades de bajo nivel hasta actividades cibercriminales más serias", declaró Anthropic.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd