Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Traducido por IA

Incidente 1054: Informe antrópico revela uso indebido de Claude para operaciones de influencia, robo de credenciales, fraude de reclutamiento y desarrollo de malware.

Descripción:
Traducido por IA
En abril de 2025, Anthropic publicó un informe que detallaba varios casos de uso indebido relacionados con su Claude LLM, todos detectados en marzo. Estos incluían una operación de "influencia como servicio" que orquestó más de 100 bots en redes sociales; un intento de extraer y probar credenciales filtradas para acceder a cámaras de seguridad; una campaña de fraude de reclutamiento dirigida a Europa del Este; y un actor novato que desarrollaba malware sofisticado. Anthropic baneó las cuentas involucradas, pero no pudo confirmar su implementación posterior.
Editor Notes: Timeline notes: Anthropic's report details separate case studies from March 2025, but published their findings on 04/23/2025, which is the date this incident ID takes.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Alleged: Anthropic developed an AI system deployed by Unknown malicious actors , Unknown cybercriminals y Influence-as-a-service operators, which harmed social media users , People targeted by malware , Job seekers in Eastern Europe y IoT security camera owners.
Sistemas de IA presuntamente implicados: LLM-enhanced malware toolkits , Claude AI models , Claude y AI-generated social media bots

Estadísticas de incidentes

ID
1054
Cantidad de informes
5
Fecha del Incidente
2025-04-23
Editores
Daniel Atherton

Informes del Incidente

Cronología de Informes

+1
Detección y lucha contra el uso malicioso de Claude: marzo de 2025
¡Por qué los avisos son los nuevos IOC que no viste venir!Claude AI explotado para operar más de 100 personajes políticos falsos en una campaña de influencia globalAnthropic señala la influencia de la IA y las operaciones de ciberdelincuenciaClaude AI se abusa en operaciones y campañas de influencia como servicio
Detección y lucha contra el uso malicioso de Claude: marzo de 2025

Detección y lucha contra el uso malicioso de Claude: marzo de 2025

anthropic.com

¡Por qué los avisos son los nuevos IOC que no viste venir!

¡Por qué los avisos son los nuevos IOC que no viste venir!

blog.securitybreak.io

Claude AI explotado para operar más de 100 personajes políticos falsos en una campaña de influencia global

Claude AI explotado para operar más de 100 personajes políticos falsos en una campaña de influencia global

thehackernews.com

Anthropic señala la influencia de la IA y las operaciones de ciberdelincuencia

Anthropic señala la influencia de la IA y las operaciones de ciberdelincuencia

channele2e.com

Claude AI se abusa en operaciones y campañas de influencia como servicio

Claude AI se abusa en operaciones y campañas de influencia como servicio

gbhackers.com

Detección y lucha contra el uso malicioso de Claude: marzo de 2025
anthropic.com · 2025
Traducido por IA

Nos comprometemos a prevenir el uso indebido de nuestros modelos Claude por parte de actores adversarios, a la vez que mantenemos su utilidad para los usuarios legítimos. Si bien nuestras medidas de seguridad previenen con éxito muchos resu…

¡Por qué los avisos son los nuevos IOC que no viste venir!
blog.securitybreak.io · 2025
Traducido por IA

Los LLM y los sistemas de IA generativa se implementan rápidamente en diversas industrias, y su escala está creando nuevas oportunidades para los actores de amenazas.

Recientemente, un informe de amenazas de Anthropic analizó los usos malic…

Claude AI explotado para operar más de 100 personajes políticos falsos en una campaña de influencia global
thehackernews.com · 2025
Traducido por IA

La empresa de inteligencia artificial (IA) Anthropic ha revelado que actores de amenazas desconocidos utilizaron su chatbot Claude para una operación de "influencia como servicio" con el fin de interactuar con cuentas auténticas en Facebook…

Anthropic señala la influencia de la IA y las operaciones de ciberdelincuencia
channele2e.com · 2025
Traducido por IA

Anthropic ha revelado un ejemplo preocupante de cómo las herramientas de IA pueden utilizarse como arma para escalar operaciones de influencia, según un informe de The Hacker News. La compañía descubrió que su chatbot Claude se utilizó para…

Claude AI se abusa en operaciones y campañas de influencia como servicio
gbhackers.com · 2025
Traducido por IA

La IA de Claude, desarrollada por Anthropic, ha sido explotada por actores maliciosos en diversas operaciones adversarias, en particular una campaña de "influencia como servicio" con fines financieros.

Esta operación aprovechó las avanzadas…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

AI-Generated Profiles Used in Disinformation Campaign Targeting Ukrainians

Updates on Our Security Work in Ukraine

Feb 2022 · 4 informes
Fake LinkedIn Profiles Created Using GAN Photos

That smiling LinkedIn profile face might be a computer-generated fake

Feb 2022 · 4 informes
DALL-E 2 Reported for Gender and Racially Biased Outputs

A new AI draws delightful and not-so-delightful images

Apr 2022 · 3 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

AI-Generated Profiles Used in Disinformation Campaign Targeting Ukrainians

Updates on Our Security Work in Ukraine

Feb 2022 · 4 informes
Fake LinkedIn Profiles Created Using GAN Photos

That smiling LinkedIn profile face might be a computer-generated fake

Feb 2022 · 4 informes
DALL-E 2 Reported for Gender and Racially Biased Outputs

A new AI draws delightful and not-so-delightful images

Apr 2022 · 3 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 300d90c