Incident 1074: Erreurs de citation dans l'affaire Concord Music c. Anthropic attribuées à Claude AI utilisées par l'avocat de la défense
Description: Dans une plainte déposée dans l'affaire Universal Music Group et al. c. Anthropic, les avocats d'Anthropic ont reconnu que les témoignages d'experts présentés dans cette affaire contenaient des citations erronées générées par le système Claude AI de l'entreprise. La plainte indiquait que les inexactitudes, notamment des titres d'articles et des noms d'auteurs erronés, n'avaient pas été détectées lors de la vérification manuelle. Anthropic a qualifié le problème d'erreur de bonne foi et a présenté ses excuses au tribunal.
Editor Notes: The declaration of Ivana Dukanovic related to ECF no. 365 can be read here: https://s3.documentcloud.org/documents/25943457/anthropic-515-filing.pdf. This incident record includes the names of the attorneys who submitted a court filing containing erroneous citations attributed to generative AI use. Their names are drawn directly from the public docket of Concord Music Group, Inc. et al. v. Anthropic PBC. Inclusion here reflects their formal authorship of the document in question. The declaration submitted by Dukanovic acknowledges the citation errors and describes the circumstances of their introduction. That statement is an early example of what may become a new genre of legal apology shaped by AI-assisted work. This record aims to document how such tools are being integrated (sometimes uneasily) into professional and institutional practice.
Outils
Nouveau rapportNouvelle RéponseDécouvrirVoir l'historique
Le Moniteur des incidents et risques liés à l'IA de l'OCDE (AIM) collecte et classe automatiquement les incidents et risques liés à l'IA en temps réel à partir de sources d'information réputées dans le monde entier.
Entités
Voir toutes les entitésPrésumé : Un système d'IA développé et mis en œuvre par Anthropic et Claude, a endommagé Anthropic , Judicial integrity , Judicial process , Ivana Dukanovic , Brittany N. Lovejoy , Joseph R. Wetzel , Andrew M. Gass , Allison L. Stillman , Sarang V. Damle , Sara E. Sampoli , Rachel S. Horn et Latham & Watkins LLP.
Système d'IA présumé impliqué: Claude
Statistiques d'incidents
ID
1074
Nombre de rapports
2
Date de l'incident
2025-05-15
Editeurs
Daniel Atherton
Rapports d'incidents
Chronologie du rapport
Un avocat représentant Anthropic a admis avoir utilisé une citation erronée créée par Claude, le chatbot IA de l'entreprise, dans le cadre de sa bataille juridique en cours avec des éditeurs de musique, selon un dossier déposé jeudi devant …

Une avocate défendant Anthropic, société d'intelligence artificielle, dans un procès pour atteinte aux droits d'auteur concernant des paroles de chansons, a déclaré jeudi à un juge fédéral californien que son cabinet Latham & Watkins était …
Variantes
Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?