Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 5295

Incidentes Asociados

Incidente 10743 Reportes
Citation Errors in Concord Music v. Anthropic Attributed to Claude AI Use by Defense Counsel

Loading...
Los abogados de Anthropic se responsabilizan de la "alucinación" de la IA en la demanda de las editoriales musicales
reuters.com · 2025

Una abogada que defiende a la empresa de inteligencia artificial Anthropic en una demanda por derechos de autor sobre letras de canciones declaró el jueves ante un juez federal de California que su bufete, Latham & Watkins, fue responsable de una nota a pie de página incorrecta en un informe pericial causada por una "alucinación" de IA.

Ivana Dukanovic declaró en un documento judicial, abre en una nueva pestaña que el experto se basó en un artículo legítimo de una revista académica, pero Dukanovic creó una cita para él utilizando el chatbot Claude de Anthropic, lo que inventó un título y autores falsos, en lo que la abogada calificó como un "error vergonzoso e involuntario".

"Desafortunadamente, aunque proporcionó el título de la publicación, el año de publicación y el enlace a la fuente correctos, la cita devuelta incluía un título inexacto y autores incorrectos", declaró Dukanovic.

La demanda interpuesta por las editoriales musicales Universal Music Group (UMG.AS), abre en nueva pestaña, Concord y ABKCO por el supuesto uso indebido de las letras de sus canciones por parte de Anthropic para entrenar a Claude es una de varias disputas de alto riesgo entre propietarios de derechos de autor y empresas tecnológicas por el uso de su trabajo para entrenar sistemas de inteligencia artificial. El abogado de la editorial, Matt Oppenheim, de Oppenheim + Zebrak, declaró ante el tribunal durante una audiencia celebrada el martes que la científica de datos de Anthropic, Olivia Chen, podría haber utilizado una fuente fabricada por IA para reforzar el argumento de la empresa en una disputa sobre pruebas.

La magistrada federal Susan van Keulen declaró en la audiencia que la acusación planteaba "un problema muy serio y grave" y que existía "una gran diferencia entre una cita omitida y una alucinación generada por IA".

Dukanovic respondió el jueves que Chen había citado un artículo real de la revista American Statistician que respaldaba su argumento, pero que los abogados habían pasado por alto que Claude había introducido un título y autores incorrectos.

Un portavoz de los demandantes se negó a hacer comentarios sobre la nueva presentación. Dukanovic y un portavoz de Anthropic no respondieron de inmediato a las solicitudes de comentarios.

Varios abogados han sido criticados o sancionados por los tribunales en los últimos meses por citar erróneamente casos inexistentes y otra información incorrecta obtenida por inteligencia artificial en sus presentaciones.

Dukanovic declaró en la presentación judicial del jueves que Latham había implementado "múltiples niveles de revisión adicional para garantizar que esto no vuelva a ocurrir".

El caso es Concord Music Group Inc. contra Anthropic PBC, Tribunal de Distrito de los Estados Unidos para el Distrito Norte de California, n.º 5:24-cv-03811.

Para las editoriales musicales: Matt Oppenheim de Oppenheim + Zebrak

Para Anthropic: Sy Damle de Latham & Watkins

Leer más:

Editoriales musicales demandan a la empresa de inteligencia artificial Anthropic por las letras de sus canciones

Anthropic llega a un acuerdo sobre las barreras de seguridad de la IA en una demanda por las letras de sus canciones

Experto de Anthropic acusado de usar una fuente fabricada por IA en materia de derechos de autor caso](https://www.reuters.com/legal/litigation/anthropic-expert-accused-using-ai-fabricated-source-copyright-case-2025-05-13/)

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd