Incidentes Asociados

Anthropic reveló el miércoles que desbarató una sofisticada operación que utilizó su chatbot Claude, impulsado por inteligencia artificial (IA), para llevar a cabo robos y extorsiones a gran escala de datos personales en julio de 2025.
"El actor atacó al menos a 17 organizaciones distintas, incluyendo instituciones sanitarias, de servicios de emergencia, gubernamentales y religiosas", declaró la compañía. "En lugar de cifrar la información robada con ransomware tradicional, amenazó con exponer los datos públicamente para intentar extorsionar a las víctimas y obligarlas a pagar rescates que, en ocasiones, superaban los 500.000 dólares". El actor empleó Claude Code en Kali Linux como plataforma de ataque integral, integrando instrucciones operativas en un archivo CLAUDE.md que proporcionaba contexto persistente para cada interacción.
Se dice que el actor de amenazas desconocido utilizó la IA a un nivel sin precedentes, utilizando Claude Code, la herramienta de codificación agéntica de Anthropic, para automatizar varias fases del ciclo de ataque, incluyendo el reconocimiento, la recolección de credenciales y la penetración en la red.
Las tareas de reconocimiento incluyeron el escaneo de miles de endpoints VPN para identificar sistemas susceptibles, utilizándolos para obtener acceso inicial y, posteriormente, la enumeración de usuarios y los pasos de descubrimiento de red para extraer credenciales y configurar la persistencia en los hosts.
Además, el atacante utilizó Claude Code para crear versiones personalizadas de la utilidad de tunelización Chisel para eludir los esfuerzos de detección y disfrazar ejecutables maliciosos como herramientas legítimas de Microsoft, lo que indica cómo se utilizan las herramientas de IA para facilitar el desarrollo de malware con capacidades de evasión de defensa.
La actividad, cuyo nombre en código es GTG-2002, destaca por emplear a Claude para tomar "decisiones tácticas y estratégicas" por sí sola, lo que le permite decidir qué datos deben exfiltrarse de las redes de las víctimas y elaborar demandas de extorsión específicas mediante el análisis de los datos financieros para determinar un monto de rescate adecuado, que oscila entre 75 000 y 500 000 dólares en Bitcoin.
El código de Claude, según Anthropic, también se utilizó para organizar datos robados con fines de monetización, extrayendo miles de registros individuales, incluyendo identificadores personales, direcciones, información financiera e historiales médicos de múltiples víctimas. Posteriormente, la herramienta se empleó para crear notas de rescate personalizadas y estrategias de extorsión de varios niveles basadas en el análisis de los datos exfiltrados.
"Las herramientas de IA de Agentic se utilizan ahora para proporcionar asesoramiento técnico y apoyo operativo activo para ataques que, de otro modo, habrían requerido un equipo de operadores", declaró Anthropic. "Esto dificulta cada vez más la defensa y la aplicación de la ley, ya que estas herramientas pueden adaptarse a medidas defensivas, como los sistemas de detección de malware, en tiempo real".
Para mitigar este tipo de amenazas de "hackeo de vibraciones" en el futuro, la compañía afirmó haber desarrollado un clasificador personalizado para detectar comportamientos similares y compartido indicadores técnicos con socios clave. A continuación se enumeran otros usos indebidos documentados de Claude:
- Uso de Claude por parte de agentes norcoreanos relacionados con el esquema fraudulento de teletrabajo para crear personajes ficticios elaborados con antecedentes profesionales convincentes e historial de proyectos, evaluaciones técnicas y de programación durante el proceso de solicitud y para ayudarles en su trabajo diario una vez contratados.
- Uso de Claude por parte de un ciberdelincuente con sede en el Reino Unido, con nombre en código GTG-5004, para desarrollar, comercializar y distribuir diversas variantes de ransomware con capacidades avanzadas de evasión, cifrado y mecanismos antirrecuperación. Estas variantes se vendieron posteriormente en foros de la darknet como Dread, CryptBB y Nulled a otros actores de amenazas por entre 400 y 1200 dólares.
- Uso de Claude por parte de un actor de amenazas chino para mejorar sus operaciones cibernéticas. Ataques contra infraestructura crítica vietnamita, como proveedores de telecomunicaciones, bases de datos gubernamentales y sistemas de gestión agrícola, durante una campaña de 9 meses.
- Uso de Claude por parte de un desarrollador rusoparlante para crear malware con capacidades avanzadas de evasión.
- Uso del Protocolo de Contexto de Modelo (MCP) y Claude por parte de un actor de amenazas que opera en el foro de ciberdelincuencia xss[.]is con el objetivo de analizar los registros de los ladrones y crear perfiles detallados de las víctimas.
- Uso de Claude Code por parte de un actor hispanoparlante para mantener y mejorar un servicio web exclusivo para invitados, orientado a la validación y reventa a gran escala de tarjetas de crédito robadas.
- Uso de Claude como parte de un bot de Telegram que ofrece herramientas de IA multimodal para apoyar operaciones de estafas románticas. Publicitando el chatbot como un "modelo de alto coeficiente intelectual".
- Uso de Claude por parte de un actor desconocido para lanzar un servicio operativo de identidad sintética que rota entre tres servicios de validación de tarjetas, también conocidos como "verificadores de tarjetas".
La compañía también afirmó haber frustrado los intentos de actores de amenazas norcoreanos vinculados a la campaña Contagious Interview de crear cuentas en la plataforma para mejorar su conjunto de herramientas de malware, crear señuelos de phishing y generar paquetes npm, impidiéndoles emitir avisos.
Los estudios de caso se suman a la creciente evidencia de que los sistemas de IA, a pesar de las diversas barreras de seguridad que incorporan, están siendo utilizados de forma abusiva para facilitar esquemas sofisticados a gran velocidad y escala.
[
](ht tps://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhK7ahje5t7VQKL300SsYMjnpt4MEweQ-rJRjAXxDtgjPF9skYOLIm5jNgP-7nAnNQBnowW6Cs3TbkNAWH50Tt01gHTqGcA4hZEAsobnVLJdl9oquQpaZ48a93H7FTC532kpTyz8lkyy-mRrZLPTPn7Fs2tEz7Y9QgJmfUNOI4sy6BEBXZmSrS0CJv7CbI-/s728-rw-e365/ransomware.jpg)
"Delincuentes" "Quienes tienen pocas habilidades técnicas están utilizando la IA para llevar a cabo operaciones complejas, como el desarrollo de ransomware, que antes habrían requerido años de capacitación", afirmaron Alex Moix, Ken Lebedev y Jacob Klein de Anthropic, destacando la capacidad de la IA para reducir las barreras al cibercrimen.
"Los ciberdelincuentes y estafadores han integrado la IA en todas las etapas de sus operaciones. Esto incluye la elaboración de perfiles de las víctimas, el análisis de datos robados, el robo de información de tarjetas de crédito y la creación de identidades falsas, lo que permite que las operaciones de fraude amplíen su alcance a más objetivos potenciales".