Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 5188

Incidentes Asociados

Incidente 10743 Reportes
Citation Errors in Concord Music v. Anthropic Attributed to Claude AI Use by Defense Counsel

Loading...
El abogado de Anthropic se vio obligado a disculparse después de que Claude alucinó una citación legal
techcrunch.com · 2025

Un abogado que representa a Anthropic admitió haber usado una cita errónea creada por el chatbot de IA Claude de la compañía en su batalla legal con las editoriales musicales, según un documento presentado el jueves en un tribunal del norte de California.

Claude alucinó la cita con "un título y autores inexactos", afirma Anthropic en el documento, informado inicialmente por Bloomberg. Los abogados de Anthropic explican que su "verificación manual de citas" no detectó este error, ni otros varios causados por las alucinaciones de Claude. Anthropic se disculpó por el error y lo calificó como "un error de citación honesto y no una invención de autoridad".

A principios de esta semana, los abogados que representan a Universal Music Group y otras editoriales musicales acusaron a la perito de Anthropic —una empleada de la compañía, Olivia Chen— de utilizar a Claude para citar artículos falsos en su testimonio. La jueza federal Susan van Keulen ordenó posteriormente a Anthropic responder a estas acusaciones.

La demanda de las editoriales musicales es una de varias disputas entre propietarios de derechos de autor y empresas tecnológicas por el supuesto uso indebido de su trabajo para crear herramientas de IA generativa.

Este es el último caso de abogados que utilizan IA en los tribunales y luego se arrepienten de la decisión. A principios de esta semana, un juez de California criticó duramente a dos bufetes de abogados por presentar "investigaciones falsas generadas por IA" (https://www.theverge.com/news/666443/judge-slams-lawyers-ai-bogus-research) en su tribunal. En enero, un abogado australiano fue descubierto usando ChatGPT en la preparación de documentos judiciales (https://www.theguardian.com/australia-news/2025/feb/01/australian-lawyer-caught-using-chatgpt-filed-court-documents-referencing-non-existent-cases) y el chatbot generó citas erróneas.

Sin embargo, estos errores no impiden que las startups recauden grandes cantidades para automatizar el trabajo legal. Harvey, que utiliza modelos de IA generativos para ayudar a los abogados, está según se informa, en conversaciones para recaudar más de 250 millones de dólares con una valoración de 5 mil millones de dólares.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd