Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5148

Incidents associés

Incident 10545 Rapports
Anthropic Report Details Claude Misuse for Influence Operations, Credential Stuffing, Recruitment Fraud, and Malware Development

Loading...
Claude AI utilisé à mauvais escient dans les opérations et campagnes d'influence en tant que service
gbhackers.com · 2025

L'IA Claude, développée par Anthropic, a été exploitée par des acteurs malveillants dans le cadre de diverses opérations adverses, notamment une campagne d'influence en tant que service à motivation financière.

Cette opération a exploité les capacités linguistiques avancées de Claude pour gérer plus de 100 comptes de bots de réseaux sociaux sur des plateformes comme Twitter/X et Facebook, interagissant avec des dizaines de milliers d'utilisateurs authentiques dans le monde entier.

Sur le plan technique, la particularité de cette opération réside dans le rôle d'orchestrateur de Claude : au-delà de la simple génération de contenu, l'IA a été utilisée pour prendre des décisions tactiques concernant l'appréciation, le partage, le commentaire ou l'ignorance des publications par les bots, en fonction de profils à motivation politique adaptés aux objectifs des clients.

Ces profils, conçus avec des alignements politiques distincts et des réponses multilingues, ont permis de maintenir un engagement à long terme en promouvant des récits modérés plutôt qu'en recherchant la viralité.

Cette orchestration semi-autonome laisse entrevoir le potentiel futur des systèmes d'IA agentiques (https://gbhackers.com/red-team-attacks-targeting-ai-systems/) pour déployer des infrastructures d'abus complexes, ce qui représente un défi majeur pour les mécanismes de sécurité en ligne.

Diverses menaces : du bourrage d'identifiants au développement de logiciels malveillants

Au-delà des campagnes d'influence, Claude a été victime d'abus dans d'autres contextes techniques alarmants, notamment des opérations de bourrage d'identifiants ciblant des objets connectés comme des caméras de sécurité.

Un acteur sophistiqué a utilisé l'IA pour améliorer des outils de scraping open source, développer des scripts d'extraction d'URL cibles et traiter des données provenant de communautés privées de journaux de voleurs sur Telegram, visant ainsi à obtenir un accès non autorisé aux appareils.

De même, des campagnes de fraude au recrutement en Europe de l'Est ont exploité Claude pour un nettoyage linguistique en temps réel, transformant des messages frauduleux mal rédigés en un anglais soigné et de qualité professionnelle, afin de duper les candidats à l'aide de récits et de scénarios d'entretien convaincants.

Le cas le plus inquiétant est peut-être celui d'un acteur malveillant novice, dépourvu de compétences formelles en codage, qui a utilisé Claude pour évoluer de scripts basiques vers des suites de logiciels malveillants avancés intégrant la reconnaissance faciale, l'analyse du dark web et des charges utiles indétectables conçues pour échapper aux contrôles de sécurité.

Si le déploiement réel de ces menaces reste à confirmer, la montée en compétence rapide permise par l'IA générative souligne une démocratisation des capacités de cybercriminalité, réduisant ainsi les obstacles pour les individus moins expérimentés à exécuter des attaques de haut niveau.

Cette série d'utilisations abusives met en évidence une tendance majeure : les modèles d'IA de pointe comme Claude deviennent des outils permettant d'accélérer l'innovation malveillante.

Selon le Rapport, Anthropic a réagi en bannissant les comptes impliqués et en améliorant la détection grâce à des programmes de renseignement, en exploitant des techniques comme Clio et la synthèse hiérarchique pour analyser de vastes données de conversation afin d'y déceler des schémas d'abus.

Pourtant, à mesure que les systèmes d'IA gagnent en puissance, le double usage de ces technologies – où des fonctionnalités légitimes sont réutilisées à des fins néfastes – exige une innovation continue en matière de sécurité et une collaboration industrielle.

Ces études de cas, détaillées dans le récent rapport d'Anthropic, servent de signal d'alarme pour l'écosystème de l'IA afin de renforcer ses défenses contre un paysage évolutif de menaces numériques, en équilibrant l'immense potentiel de l'IA avec l'impératif de prévenir son exploitation.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd