Entités
Voir toutes les entitésStatistiques d'incidents
Rapports d'incidents
Chronologie du rapport
Nous nous engageons à prévenir l'utilisation abusive de nos modèles Claude par des acteurs malveillants tout en préservant leur utilité pour les utilisateurs légitimes. Si nos mesures de sécurité préviennent efficacement de nombreux contenu…
Les masters de maîtrise et les systèmes d'IA générative sont rapidement déployés dans tous les secteurs, et leur ampleur crée de nouvelles opportunités pour les acteurs malveillants.
Récemment, un rapport d'Anthropic sur les menaces évoquai…
Anthropic, une entreprise d'intelligence artificielle (IA), a révélé que des acteurs malveillants inconnus ont exploité son chatbot Claude pour une opération d'« influence en tant que service » afin d'interagir avec des comptes authentiques…
Anthropic a révélé un exemple inquiétant de la manière dont les outils d'IA peuvent être utilisés pour étendre les opérations d'influence, selon un rapport de The Hacker News. L'entreprise a découvert que son chatbot Claude était utilisé po…
L'IA Claude, développée par Anthropic, a été exploitée par des acteurs malveillants dans le cadre de diverses opérations adverses, notamment une campagne d'influence en tant que service à motivation financière.
Cette opération a exploité le…
Variantes
Incidents similaires
Did our AI mess up? Flag the unrelated incidents
Incidents similaires
Did our AI mess up? Flag the unrelated incidents