Incident 1210: Des paquets malveillants Nx npm utiliseraient des agents de codage d'IA comme armes pour l'exfiltration de données.
Description: Des versions malveillantes du célèbre outil monorepo Nx et de ses plugins auraient été publiées sur npm après que des attaquants ont compromis son flux de travail d'intégration continue. Le script de post-installation du logiciel malveillant aurait collecté des identifiants et exfiltré des données, attaquant ainsi des agents de codage IA locaux tels que Claude Code, Gemini et Amazon Q. En invoquant des indicateurs non sécurisés, il aurait forcé les outils à analyser les machines des développeurs à la recherche de fichiers sensibles, marquant ainsi l'une des premières attaques connues contre la chaîne d'approvisionnement assistée par IA.
Entités
Voir toutes les entitésAlleged: Anthropic , Google et Amazon developed an AI system deployed by Malicious actors compromising Nx’s CI/CD pipeline and publishing tainted npm packages, which harmed Nx users and organizations installing compromised npm packages.
Systèmes d'IA présumés impliqués: Nx (monorepo tool and plugins) , npm registry , Claude Code CLI , Google Gemini CLI , Amazon q CLI et GitHub
Statistiques d'incidents
Risk Subdomain
A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
2.2. AI system security vulnerabilities and attacks
Risk Domain
The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
- Privacy & Security
Entity
Which, if any, entity is presented as the main cause of the risk
AI
Timing
The stage in the AI lifecycle at which the risk is presented as occurring