Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 6673

Incidentes Asociados

Incidente 126334 Reportes
Chinese State-Linked Operator (GTG-1002) Reportedly Uses Claude Code for Autonomous Cyber Espionage

Loading...
Los hackers vuelven a usar el modelo de IA Claude de Anthropic.
theverge.com · 2025

Anthropic anunció el jueves que hackers patrocinados por el Estado chino utilizaron Claude, el modelo de IA de la compañía, para automatizar aproximadamente 30 ataques contra corporaciones y gobiernos durante una campaña en septiembre, según un reporte del Wall Street Journal (https://www.wsj.com/tech/ai/china-hackers-ai-cyberattacks-anthropic-41d7ce76).

Anthropic afirmó que entre el 80% y el 90% del ataque se automatizó con IA, un nivel superior al de ataques anteriores. Según declaró Jacob Klein, jefe de inteligencia de amenazas de Anthropic, al Journal, el ataque se produjo «literalmente con solo pulsar un botón y con una mínima interacción humana». Añadió: «El humano solo intervino en algunos puntos críticos, diciendo: "Sí, continúen", "No continúen", "Gracias por la información", "Oh, esto no parece correcto, Claude, ¿estás seguro?"».

El hackeo impulsado por IA es cada vez más común, al igual que la estrategia más reciente de usar IA para coordinar las diversas tareas necesarias para un ataque exitoso. Google detectó que hackers rusos utilizaban modelos de lenguaje complejo para generar comandos para su malware, según un informe de la compañía publicado el 5 de noviembre.

Durante años, el gobierno estadounidense ha advertido que China utiliza inteligencia artificial para robar datos de ciudadanos y empresas estadounidenses, algo que China ha negado. Anthropic declaró al Journal que confía en que los hackers contaron con el patrocinio del gobierno chino. En esta campaña, los hackers robaron datos confidenciales de cuatro víctimas, pero, al igual que en ataques anteriores, Anthropic no reveló los nombres de los objetivos, ni de las víctimas ni de quienes sufrieron el ataque. La empresa sí aclaró que el gobierno estadounidense no fue uno de los objetivos.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd