Incidents associés

Une avocate défendant Anthropic, société d'intelligence artificielle, dans un procès pour atteinte aux droits d'auteur concernant des paroles de chansons, a déclaré jeudi à un juge fédéral californien que son cabinet Latham & Watkins était responsable d'une note de bas de page erronée dans un rapport d'expertise, causée par une « hallucination » provoquée par l'IA.
Ivana Dukanovic a déclaré dans un document judiciaire, ouvre un nouvel onglet que l'expert s'était appuyé sur un article de revue universitaire légitime, mais que Dukanovic avait créé une citation pour cet article à l'aide du chatbot Claude d'Anthropic, ce qui a inventé un faux titre et de faux auteurs, ce que l'avocate a qualifié d'« erreur embarrassante et involontaire ».
« Malheureusement, bien que le titre de publication, l'année de publication et le lien vers la source fournis soient corrects, la citation renvoyée comportait un titre et des auteurs erronés », a déclaré Dukanovic.
Le procès intenté par les éditeurs de musique Universal Music Group (UMG.AS), ouvre un nouvel onglet, Concord et ABKCO concernant l'utilisation abusive présumée de leurs paroles par Anthropic pour former Claude est l'un des nombreux litiges à enjeux élevés entre les titulaires de droits d'auteur et les entreprises technologiques concernant l'utilisation de leurs œuvres pour former des systèmes d'IA.
L'avocat des éditeurs, Matt Oppenheim, du cabinet Oppenheim + Zebrak, a déclaré au tribunal mardi, lors d'une audience, que la scientifique des données d'Anthropic, Olivia Chen, pourrait avoir utilisé une source fabriquée par l'IA pour étayer les arguments de l'entreprise dans un litige relatif aux preuves.
La juge fédérale Susan van Keulen a déclaré lors de l'audience que cette allégation soulevait « un problème très sérieux et grave » et qu'il y avait « un monde de différence entre une citation manquante et une hallucination générée par l'IA ».
Dukanovic a répondu jeudi que Chen avait cité un véritable article de la revue American Statistician qui étayait ses arguments, mais que les avocats n'avaient pas remarqué que Claude avait introduit un titre et des auteurs incorrects.
Un porte-parole des plaignants a refusé de commenter le nouveau dossier. Dukanovic et un porte-parole d'Anthropic n'ont pas immédiatement répondu aux demandes de commentaires.
Plusieurs avocats ont été critiqués ou sanctionnés par les tribunaux ces derniers mois pour avoir cité par erreur des cas inexistants et d'autres informations erronées générées par l'IA dans leurs dossiers.
Dukanovic a déclaré dans le dossier déposé jeudi que Latham avait mis en œuvre « plusieurs niveaux d'examen supplémentaires afin de garantir que cela ne se reproduise plus ».
L'affaire est Concord Music Group Inc c. Anthropic PBC, Tribunal de district des États-Unis pour le district nord de Californie, n° 5:24-cv-03811.
Pour les éditeurs de musique : Matt Oppenheim (Oppenheim + Zebrak)
Pour Anthropic : Sy Damle (Latham & Watkins)
Lire la suite :
[Un expert d'Anthropic accusé d'avoir utilisé des sources fabriquées par l'IA pour des droits d'auteur affaire