Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5295

Incidents associés

Incident 10743 Rapports
Citation Errors in Concord Music v. Anthropic Attributed to Claude AI Use by Defense Counsel

Loading...
Les avocats d'Anthropic sont accusés d'avoir provoqué une « hallucination » liée à l'IA dans le procès des éditeurs de musique
reuters.com · 2025

Une avocate défendant Anthropic, société d'intelligence artificielle, dans un procès pour atteinte aux droits d'auteur concernant des paroles de chansons, a déclaré jeudi à un juge fédéral californien que son cabinet Latham & Watkins était responsable d'une note de bas de page erronée dans un rapport d'expertise, causée par une « hallucination » provoquée par l'IA.

Ivana Dukanovic a déclaré dans un document judiciaire, ouvre un nouvel onglet que l'expert s'était appuyé sur un article de revue universitaire légitime, mais que Dukanovic avait créé une citation pour cet article à l'aide du chatbot Claude d'Anthropic, ce qui a inventé un faux titre et de faux auteurs, ce que l'avocate a qualifié d'« erreur embarrassante et involontaire ».

« Malheureusement, bien que le titre de publication, l'année de publication et le lien vers la source fournis soient corrects, la citation renvoyée comportait un titre et des auteurs erronés », a déclaré Dukanovic.

Le procès intenté par les éditeurs de musique Universal Music Group (UMG.AS), ouvre un nouvel onglet, Concord et ABKCO concernant l'utilisation abusive présumée de leurs paroles par Anthropic pour former Claude est l'un des nombreux litiges à enjeux élevés entre les titulaires de droits d'auteur et les entreprises technologiques concernant l'utilisation de leurs œuvres pour former des systèmes d'IA.

L'avocat des éditeurs, Matt Oppenheim, du cabinet Oppenheim + Zebrak, a déclaré au tribunal mardi, lors d'une audience, que la scientifique des données d'Anthropic, Olivia Chen, pourrait avoir utilisé une source fabriquée par l'IA pour étayer les arguments de l'entreprise dans un litige relatif aux preuves.

La juge fédérale Susan van Keulen a déclaré lors de l'audience que cette allégation soulevait « un problème très sérieux et grave » et qu'il y avait « un monde de différence entre une citation manquante et une hallucination générée par l'IA ».

Dukanovic a répondu jeudi que Chen avait cité un véritable article de la revue American Statistician qui étayait ses arguments, mais que les avocats n'avaient pas remarqué que Claude avait introduit un titre et des auteurs incorrects.

Un porte-parole des plaignants a refusé de commenter le nouveau dossier. Dukanovic et un porte-parole d'Anthropic n'ont pas immédiatement répondu aux demandes de commentaires.

Plusieurs avocats ont été critiqués ou sanctionnés par les tribunaux ces derniers mois pour avoir cité par erreur des cas inexistants et d'autres informations erronées générées par l'IA dans leurs dossiers.

Dukanovic a déclaré dans le dossier déposé jeudi que Latham avait mis en œuvre « plusieurs niveaux d'examen supplémentaires afin de garantir que cela ne se reproduise plus ».

L'affaire est Concord Music Group Inc c. Anthropic PBC, Tribunal de district des États-Unis pour le district nord de Californie, n° 5:24-cv-03811.

Pour les éditeurs de musique : Matt Oppenheim (Oppenheim + Zebrak)

Pour Anthropic : Sy Damle (Latham & Watkins)

Lire la suite :

Des éditeurs de musique poursuivent Anthropic, une société d'intelligence artificielle, pour des paroles de chansons

Anthropic parvient à un accord sur les « garde-fous » de l'IA dans le cadre d'un procès concernant des paroles de chansons

[Un expert d'Anthropic accusé d'avoir utilisé des sources fabriquées par l'IA pour des droits d'auteur affaire

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd