Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Traduit par IA

Incident 1074: Erreurs de citation dans l'affaire Concord Music c. Anthropic attribuées à Claude AI utilisées par l'avocat de la défense

Traduit par IA
Description:
Traduit par IA
Dans une plainte déposée dans l'affaire Universal Music Group et al. c. Anthropic, les avocats d'Anthropic ont reconnu que les témoignages d'experts présentés dans cette affaire contenaient des citations erronées générées par le système Claude AI de l'entreprise. La plainte indiquait que les inexactitudes, notamment des titres d'articles et des noms d'auteurs erronés, n'avaient pas été détectées lors de la vérification manuelle. Anthropic a qualifié le problème d'erreur de bonne foi et a présenté ses excuses au tribunal.
Editor Notes: The declaration of Ivana Dukanovic related to ECF no. 365 can be read here: https://s3.documentcloud.org/documents/25943457/anthropic-515-filing.pdf. This incident record includes the names of the attorneys who submitted a court filing containing erroneous citations attributed to generative AI use. Their names are drawn directly from the public docket of Concord Music Group, Inc. et al. v. Anthropic PBC. Inclusion here reflects their formal authorship of the document in question. The declaration submitted by Dukanovic acknowledges the citation errors and describes the circumstances of their introduction. That statement is an early example of what may become a new genre of legal apology shaped by AI-assisted work. This record aims to document how such tools are being integrated (sometimes uneasily) into professional and institutional practice.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique
Le Moniteur des incidents et risques liés à l'IA de l'OCDE (AIM) collecte et classe automatiquement les incidents et risques liés à l'IA en temps réel à partir de sources d'information réputées dans le monde entier.
 

Entités

Voir toutes les entités
Présumé : Un système d'IA développé et mis en œuvre par Anthropic et Claude, a endommagé Anthropic , Judicial integrity , Judicial process , Ivana Dukanovic , Brittany N. Lovejoy , Joseph R. Wetzel , Andrew M. Gass , Allison L. Stillman , Sarang V. Damle , Sara E. Sampoli , Rachel S. Horn et Latham & Watkins LLP.
Système d'IA présumé impliqué: Claude

Statistiques d'incidents

ID
1074
Nombre de rapports
2
Date de l'incident
2025-05-15
Editeurs
Daniel Atherton

Rapports d'incidents

Chronologie du rapport

+2
L'avocat d'Anthropic a été contraint de s'excuser après que Claude ait eu une hallucination lors d'une citation à comparaître.
L'avocat d'Anthropic a été contraint de s'excuser après que Claude ait eu une hallucination lors d'une citation à comparaître.

L'avocat d'Anthropic a été contraint de s'excuser après que Claude ait eu une hallucination lors d'une citation à comparaître.

techcrunch.com

Les avocats d'Anthropic sont accusés d'avoir provoqué une « hallucination » liée à l'IA dans le procès des éditeurs de musique

Les avocats d'Anthropic sont accusés d'avoir provoqué une « hallucination » liée à l'IA dans le procès des éditeurs de musique

reuters.com

L'avocat d'Anthropic a été contraint de s'excuser après que Claude ait eu une hallucination lors d'une citation à comparaître.
techcrunch.com · 2025
Traduit par IA

Un avocat représentant Anthropic a admis avoir utilisé une citation erronée créée par Claude, le chatbot IA de l'entreprise, dans le cadre de sa bataille juridique en cours avec des éditeurs de musique, selon un dossier déposé jeudi devant …

Les avocats d'Anthropic sont accusés d'avoir provoqué une « hallucination » liée à l'IA dans le procès des éditeurs de musique
reuters.com · 2025
Traduit par IA

Une avocate défendant Anthropic, société d'intelligence artificielle, dans un procès pour atteinte aux droits d'auteur concernant des paroles de chansons, a déclaré jeudi à un juge fédéral californien que son cabinet Latham & Watkins était …

Variantes

Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?
Incident précédentProchain incident

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • d414e0f