Description: Anthropic said it identified large-scale campaigns that used fraudulent accounts and proxy services to generate high volumes of Claude interactions to extract model capabilities for competitor training ("distillation"). Anthropic attributed the activity to DeepSeek, Moonshot, and MiniMax and said it involved millions of exchanges across thousands of accounts, violating its terms and access restrictions. Anthropic described detection measures, account controls, and indicator-sharing in response.
Entités
Voir toutes les entitésAlleged: Anthropic developed an AI system deployed by DeepSeek , Moonshot AI , MiniMax et Proxy reseller services, which harmed Anthropic , Claude users , Anthropic customers et National security and intelligence stakeholders.
Systèmes d'IA présumés impliqués: Claude , Claude API , Distillation , Model extraction , Account farming et Proxy access infrastructure
Statistiques d'incidents
ID
1395
Nombre de rapports
1
Date de l'incident
2026-02-23
Editeurs
Daniel Atherton
Rapports d'incidents
Chronologie du rapport
Loading...
Réponse post-incident de Anthropic
We have identified industrial-scale campaigns by three AI laboratories---DeepSeek, Moonshot, and MiniMax---to illicitly extract Claude's capabilities to improve their own models. These labs generated over 16 million exchanges with Claude th…
Variantes
Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?