Incidentes Asociados

Una abogada que defiende a la empresa de inteligencia artificial Anthropic en una demanda por derechos de autor sobre letras de canciones declaró el jueves ante un juez federal de California que su bufete, Latham & Watkins, fue responsable de una nota a pie de página incorrecta en un informe pericial causada por una "alucinación" de IA.
Ivana Dukanovic declaró en un documento judicial, abre en una nueva pestaña que el experto se basó en un artículo legítimo de una revista académica, pero Dukanovic creó una cita para él utilizando el chatbot Claude de Anthropic, lo que inventó un título y autores falsos, en lo que la abogada calificó como un "error vergonzoso e involuntario".
"Desafortunadamente, aunque proporcionó el título de la publicación, el año de publicación y el enlace a la fuente correctos, la cita devuelta incluía un título inexacto y autores incorrectos", declaró Dukanovic.
La demanda interpuesta por las editoriales musicales Universal Music Group (UMG.AS), abre en nueva pestaña, Concord y ABKCO por el supuesto uso indebido de las letras de sus canciones por parte de Anthropic para entrenar a Claude es una de varias disputas de alto riesgo entre propietarios de derechos de autor y empresas tecnológicas por el uso de su trabajo para entrenar sistemas de inteligencia artificial. El abogado de la editorial, Matt Oppenheim, de Oppenheim + Zebrak, declaró ante el tribunal durante una audiencia celebrada el martes que la científica de datos de Anthropic, Olivia Chen, podría haber utilizado una fuente fabricada por IA para reforzar el argumento de la empresa en una disputa sobre pruebas.
La magistrada federal Susan van Keulen declaró en la audiencia que la acusación planteaba "un problema muy serio y grave" y que existía "una gran diferencia entre una cita omitida y una alucinación generada por IA".
Dukanovic respondió el jueves que Chen había citado un artículo real de la revista American Statistician que respaldaba su argumento, pero que los abogados habían pasado por alto que Claude había introducido un título y autores incorrectos.
Un portavoz de los demandantes se negó a hacer comentarios sobre la nueva presentación. Dukanovic y un portavoz de Anthropic no respondieron de inmediato a las solicitudes de comentarios.
Varios abogados han sido criticados o sancionados por los tribunales en los últimos meses por citar erróneamente casos inexistentes y otra información incorrecta obtenida por inteligencia artificial en sus presentaciones.
Dukanovic declaró en la presentación judicial del jueves que Latham había implementado "múltiples niveles de revisión adicional para garantizar que esto no vuelva a ocurrir".
El caso es Concord Music Group Inc. contra Anthropic PBC, Tribunal de Distrito de los Estados Unidos para el Distrito Norte de California, n.º 5:24-cv-03811.
Para las editoriales musicales: Matt Oppenheim de Oppenheim + Zebrak
Para Anthropic: Sy Damle de Latham & Watkins
Leer más:
Experto de Anthropic acusado de usar una fuente fabricada por IA en materia de derechos de autor caso](https://www.reuters.com/legal/litigation/anthropic-expert-accused-using-ai-fabricated-source-copyright-case-2025-05-13/)