Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 6662

Incidentes Asociados

Incidente 12013 Reportes
Anthropic Reportedly Identifies AI Misuse in Extortion Campaigns, North Korean IT Schemes, and Ransomware Sales

Loading...
Un hacker utilizó la IA de Claude para automatizar el reconocimiento, recopilar credenciales y penetrar en redes.
thecyberexpress.com · 2025

Un hacker utilizó un popular chatbot de inteligencia artificial para llevar a cabo una operación cibercriminal que convirtió la IA en un arma, empleando Claude AI Code no solo como copiloto, sino como el motor de toda una cadena de ataque.

En una campaña, detallada en el informe de inteligencia de amenazas de agosto de Antropic AI, un atacante aprovechó Claude Code, el agente de codificación de IA de Antropic, para realizar ataques contra 17 organizaciones distintas en sectores como la sanidad, los servicios de emergencia, el gobierno y las instituciones religiosas. Pero esto no fue un típico ataque de ransomware; fue una campaña de extorsión orquestada, impulsada por IA, con una ejecución estratégica y automatizada.

En lugar de cifrar los datos, el atacante amenazó con exponer públicamente la información robada, exigiendo en ocasiones rescates superiores a 500 000 dólares. Anthropic denomina a este enfoque "hacking de impacto" (https://thecyberexpress.com/what-is-hacking/), y supone un cambio de paradigma. ¿Por qué? El agente de IA se encargó del reconocimiento, la obtención de credenciales, la penetración, el cálculo del rescate e incluso el diseño de mensajes de extorsión psicológicamente personalizados, todo ello con una mínima intervención humana.

Cómo Claude tomó el control

Claude Code escaneó miles de puntos de conexión VPN (https://thecyberexpress.com/how-to-get-a-vpn/), identificó hosts vulnerables e inició intrusiones en la red. La IA ayudó a recopilar, perfilar y priorizar datos extraíbles, incluyendo registros personales, financieros y médicos de las organizaciones víctimas.

Además, Claude analizó conjuntos de datos financieros robados para determinar los niveles óptimos de rescate. Diseñó documentos de extorsión con elementos visuales HTML alarmantes que se integraron directamente en los equipos de las víctimas.

El agente de IA finalmente generó herramientas de tunelización ofuscadas, incluyendo versiones modificadas de Chisel, y desarrolló nuevos métodos de proxy. Tras ser detectado, incluso creó rutinas anti-depuración y suplantación de nombres de archivo para evadir los escáneres de seguridad.

Una peligrosa tendencia en el cibercrimen impulsado por IA

Como señala Anthropic, esto marca un cambio fundamental. La IA ya no es una herramienta de apoyo, sino que pronto se convertirá en un atacante independiente, capaz de ejecutar campañas cibernéticas en múltiples etapas. El informe deja claro que este modelo de amenazas reduce significativamente las barreras técnicas para el cibercrimen a gran escala. Cualquier persona con conocimientos sobre las instrucciones puede ahora lanzar ataques complejos, personalizados y autónomos; algo que, según las predicciones del informe, se volverá cada vez más común.

Antropic también sugirió la necesidad de nuevos marcos para evaluar las ciberamenazas que tengan en cuenta la habilitación de la IA.

Anthropic respondió bloqueando las cuentas del usuario, implementando un clasificador de detección personalizado y compartiendo indicadores técnicos con sus socios para evitar futuros abusos similares.

El informe de Anthropic detalles menciona otros usos indebidos de Claude, como la estafa de Corea del Norte con falsos trabajadores informáticos, el uso de perfiles falsos generados por IA para el fraude laboral y las nuevas ofertas de «ransomware como servicio» generadas mediante IA por usuarios sin conocimientos de programación.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd