Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 5144

Incidentes Asociados

Incidente 10545 Reportes
Anthropic Report Details Claude Misuse for Influence Operations, Credential Stuffing, Recruitment Fraud, and Malware Development

Loading...
Anthropic señala la influencia de la IA y las operaciones de ciberdelincuencia
channele2e.com · 2025

Anthropic ha revelado un ejemplo preocupante de cómo las herramientas de IA pueden utilizarse como arma para escalar operaciones de influencia, según un informe de The Hacker News. La compañía descubrió que su chatbot Claude se utilizó para crear y gestionar una red de personajes con temática política en Facebook y X. Estos personajes fueron diseñados para interactuar con usuarios reales y amplificar narrativas alineadas con los intereses de países como los Emiratos Árabes Unidos, Irán, Kenia y algunas naciones europeas. La operación se centró menos en el contenido viral y más en la interacción sostenida a través de mensajes políticos moderados.

Lo que destacó en este caso fue el papel de Claude no solo en la generación de contenido, sino también en la orquestación del comportamiento del bot. El chatbot se utilizó para decidir cuándo y cómo los bots de redes sociales comentarían, darían "me gusta" o compartirían contenido. Generó publicaciones en idiomas locales, imitó el humor y el sarcasmo de forma humana, y aprovechó datos JSON estructurados para mantener la coherencia en diferentes plataformas. Los investigadores afirman que la campaña refleja un nivel de organización similar al de los servicios comerciales ofrecidos transfronterizamente.

Anthropic también descubrió un uso indebido adicional de Claude vinculado a actividades cibercriminales. Un actor lo utilizó para extraer credenciales filtradas y crear herramientas de ataque de fuerza bruta dirigidas a sistemas conectados a internet. Otro utilizó el modelo de IA para analizar datos de los registros de Telegram y automatizar la generación de scripts. Estos casos reflejan cómo se pueden manipular las herramientas de IA para reducir las barreras a la hora de realizar ciberataques sofisticados, especialmente para actores de amenazas novatos.

Dos ejemplos más ilustran el creciente riesgo. Una campaña mejoró el contenido de estafas laborales dirigidas a solicitantes de empleo de Europa del Este, mientras que en otra, un atacante poco cualificado creó malware con asistencia de IA. Estos casos resaltan cómo se está integrando la IA en los flujos de trabajo de amenazas en múltiples dominios (desde la influencia social hasta el robo de credenciales) y aumentan la urgencia de implementar medidas de protección que aborden tanto el uso indebido social como el técnico.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd