Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5188

Incidents associés

Incident 10743 Rapports
Citation Errors in Concord Music v. Anthropic Attributed to Claude AI Use by Defense Counsel

Loading...
L'avocat d'Anthropic a été contraint de s'excuser après que Claude ait eu une hallucination lors d'une citation à comparaître.
techcrunch.com · 2025

Un avocat représentant Anthropic a admis avoir utilisé une citation erronée créée par Claude, le chatbot IA de l'entreprise, dans le cadre de sa bataille juridique en cours avec des éditeurs de musique, selon un dossier déposé jeudi devant un tribunal de Californie du Nord.

Claude a halluciné la citation avec « un titre et des auteurs inexacts », indique Anthropic dans le dossier, initialement rapporté par Bloomberg. Les avocats d'Anthropic expliquent que leur « vérification manuelle des citations » n'a pas permis de détecter cette erreur, ni plusieurs autres erreurs causées par les hallucinations de Claude.

Anthropic a présenté ses excuses pour cette erreur, la qualifiant d'« erreur de citation honnête et non de fabrication d'autorité ».

Plus tôt cette semaine, les avocats représentant Universal Music Group et d'autres éditeurs de musique ont accusé l'experte d'Anthropic, Olivia Chen, une employée de l'entreprise, d'avoir utilisé Claude pour citer de faux articles dans son témoignage. La juge fédérale Susan van Keulen a ensuite ordonné à Anthropic de répondre à ces allégations.

Le procès intenté par les éditeurs de musique s'inscrit dans le cadre de nombreux litiges entre les titulaires de droits d'auteur et les entreprises technologiques concernant l'utilisation abusive présumée de leurs œuvres pour créer des outils d'IA générative.

Il s'agit du dernier exemple en date d'avocats utilisant l'IA devant un tribunal, puis regrettant leur décision. Plus tôt cette semaine, un juge californien a fustigé deux cabinets d'avocats pour avoir soumis de fausses recherches générées par l'IA devant son tribunal. En janvier, un avocat australien a été surpris en train d'utiliser ChatGPT pour préparer des documents judiciaires, et le chatbot a produit des citations erronées.

Cependant, ces erreurs n'empêchent pas les startups de lever des fonds colossaux pour automatiser le travail juridique. Harvey, qui utilise des modèles d'IA génératifs pour aider les avocats, serait en pourparlers pour lever plus de 250 millions de dollars avec une valorisation de 5 milliards de dollars](https://www.reuters.com/technology/legal-startup-harvey-ai-talks-raise-funding-5-billion-valuation-2025-05-14/).

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd