Incidente 1074: Errores de citación en Concord Music v. Anthropic atribuidos al uso de inteligencia artificial por parte de Claude por parte del abogado defensor
Descripción: En una presentación legal en el caso Universal Music Group et al. contra Anthropic, los abogados de Anthropic reconocieron que el testimonio pericial presentado en el caso contenía citas erróneas generadas por el sistema de inteligencia artificial Claude de la compañía. La presentación indicó que las inexactitudes, que incluían títulos de artículos y nombres de autores incorrectos, no se detectaron durante la revisión manual. Anthropic calificó el asunto como un error involuntario y se disculpó ante el tribunal.
Editor Notes: The declaration of Ivana Dukanovic related to ECF no. 365 can be read here: https://s3.documentcloud.org/documents/25943457/anthropic-515-filing.pdf. This incident record includes the names of the attorneys who submitted a court filing containing erroneous citations attributed to generative AI use. Their names are drawn directly from the public docket of Concord Music Group, Inc. et al. v. Anthropic PBC. Inclusion here reflects their formal authorship of the document in question. The declaration submitted by Dukanovic acknowledges the citation errors and describes the circumstances of their introduction. That statement is an early example of what may become a new genre of legal apology shaped by AI-assisted work. This record aims to document how such tools are being integrated (sometimes uneasily) into professional and institutional practice.
Herramientas
Nuevo InformeNueva RespuestaDescubrirVer Historial
El Monitor de Incidentes y Riesgos de IA de la OCDE (AIM) recopila y clasifica automáticamente incidentes y riesgos relacionados con la IA en tiempo real a partir de fuentes de noticias reputadas en todo el mundo.
Entidades
Ver todas las entidadesPresunto: un sistema de IA desarrollado e implementado por Anthropic y Claude, perjudicó a Anthropic , Judicial integrity , Judicial process , Ivana Dukanovic , Brittany N. Lovejoy , Joseph R. Wetzel , Andrew M. Gass , Allison L. Stillman , Sarang V. Damle , Sara E. Sampoli , Rachel S. Horn y Latham & Watkins LLP.
Sistema de IA presuntamente implicado: Claude
Estadísticas de incidentes
ID
1074
Cantidad de informes
2
Fecha del Incidente
2025-05-15
Editores
Daniel Atherton
Informes del Incidente
Cronología de Informes
Un abogado que representa a Anthropic admitió haber usado una cita errónea creada por el chatbot de IA Claude de la compañía en su batalla legal con las editoriales musicales, según un documento presentado el jueves en un tribunal del norte…

Una abogada que defiende a la empresa de inteligencia artificial Anthropic en una demanda por derechos de autor sobre letras de canciones declaró el jueves ante un juez federal de California que su bufete, Latham & Watkins, fue responsable …
Variantes
Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?