Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 5313

Incidentes Asociados

Incidente 10743 Reportes
Citation Errors in Concord Music v. Anthropic Attributed to Claude AI Use by Defense Counsel

Incidente 10992 Reportes
Factum in Ko v. Li Allegedly Contains AI-Generated Case Law Citations

Loading...
Las alucinaciones de IA atacan de nuevo: dos casos más donde los abogados enfrentan la ira judicial por citaciones falsas
lawnext.com · 2025

En lo que se ha convertido en un patrón inquietantemente familiar en los tribunales de todo Estados Unidos, han surgido dos casos más de abogados que presentan escritos con citas legales inexistentes generadas por herramientas de IA.

En este punto, cabe preguntarse si la profesión jurídica necesita un curso obligatorio de formación jurídica continua titulado "Cómo evitar convertirse en el próximo titular de alucinaciones de IA".

Aún más inquietante, quizás, es que uno de los casos involucra a un importante bufete internacional conocido por su experiencia en litigios.

Sanciones por investigación generada con IA

En el primero de estos dos casos más recientes, presentado ante el Tribunal de Distrito de los Estados Unidos para el Distrito Central de California, abogados de los bufetes Ellis George LLP y K&L Gates LLP presentaron un escrito al Perito Especial Michael Wilner que contenía numerosas citas falsas.

Los abogados utilizaron herramientas de IA, como CoCounsel, Westlaw Precision y Google Gemini, para delinear y generar su escrito.

Trent Copeland, abogado de Ellis George, admitió haber utilizado estas herramientas de IA para crear un esquema que luego compartió con colegas, incluyendo abogados de K&L Gates, sin mencionar su origen en la IA ni verificar las citas. Sus colegas incorporaron las autoridades inventadas en el escrito final sin verificarlas.

Cuando el perito judicial cuestionó inicialmente dos citas sospechosas, los abogados presentaron una versión "corregida", y un asociado de K&L Gates agradeció al perito judicial por detectar los errores y aseguró que las citas en el escrito revisado habían sido "abordadas y actualizadas".

El problema era que el escrito corregido aún contenía al menos otros seis errores generados por la IA. En sus declaraciones, los abogados confesaron que aproximadamente nueve de las 27 citas legales en su escrito de 10 páginas eran incorrectas de alguna manera, incluyendo dos casos completamente inexistentes.

El perito judicial Wilner no se anduvo con rodeos y concluyó que los abogados habían "actuado colectivamente de una manera que equivalía a mala fe". Reprendió al abogado que elaboró inicialmente el escrito por confiar en la IA sin verificar su exactitud y por enviarlo posteriormente a sus colegas sin revelar su "dudoso origen en la IA".

También reprendió a los abogados de K&L Gates, calificando su conducta de "profundamente preocupante" por no verificar la validez de la investigación que se les envió, tanto del escrito original como del supuesto escrito corregido, después de haber sido notificados de citas falsas.

Como resultado, el perito judicial decidió imponer sanciones, específicamente:

  • Eliminar todas las versiones del escrito complementario de los abogados.
  • Denegar la solicitud de descubrimiento de pruebas que solicitaban.
  • Ordenar a los bufetes de abogados a pagar conjuntamente $31,100 en honorarios legales del demandado.
  • Exigir la divulgación del asunto a su cliente.

Wilner calificó la situación de "aterradora", señalando que se sintió "convencido (o al menos intrigado) por las autoridades que citaban, y consultó las decisiones para obtener más información sobre ellas, solo para descubrir que no existían. Eso es aterrador. Casi condujo al resultado aún más aterrador (desde mi perspectiva) de incluir esos materiales falsos en una orden judicial".

En Toronto, Citaciones Fantasma

En Toronto, en el caso Ko contra Li, la abogada Jisuh Lee se vio en apuros cuando el juez del Tribunal Superior de Ontario, Fred Myers, descubrió que su escrito de demanda contenía citas de dos casos que simplemente no existen.

Cuando el juez le preguntó a Lee sobre esto y si había utilizado IA para preparar el escrito, ella respondió que su oficina no suele utilizar IA, pero que consultaría con su secretario. No pudo proporcionar citas corregidas de los casos ni copias de los mismos.

Tras la audiencia, el juez revisó de nuevo el escrito y encontró dos citas incorrectas más: una a un caso inexistente y otra a un caso que defendía la proposición contraria a la citada.

"Parece que el escrito de la Sra. Lee pudo haber sido creado por IA y que, antes de presentarlo y basarse en él ante el tribunal, es posible que no haya comprobado que los casos fueran reales o que respaldaran las proposiciones de derecho que presentó al tribunal por escrito y luego oralmente", concluyó el juez.

"Es evidente que es deber del abogado leer los casos antes de presentarlos ante un tribunal como autoridad jurisprudencial", continuó. Como mínimo, es deber del abogado no presentar pruebas que no existan o que contradigan su argumento.

En consecuencia, el juez ordenó a la abogada que justificara por qué no debía ser citada por desacato. "Tendrá una oportunidad justa de presentar pruebas para explicar lo sucedido si así lo desea".

¿Cuándo aprenderán los abogados?

A pesar de la creciente cantidad de sanciones, la vergüenza pública y las advertencias judiciales, los abogados siguen presentando alucinaciones generadas por IA a los tribunales. Esto ocurre a pesar de los dictámenes éticos de los colegios de abogados, las advertencias judiciales y suficientes artículos sobre tecnología legal como para llenar una biblioteca virtual.

Cabe preguntarse cuántos jueces más tendrán que imponer sanciones para que se entienda el mensaje: las herramientas de IA pueden ser útiles para la lluvia de ideas, pero no sustituyen la investigación jurídica tradicional ni la práctica ancestral de verificar las citas.

Hasta que los abogados capten este mensaje, podemos esperar que la serie de historias de terror sobre alucinaciones generadas por IA continúe. Mientras tanto, esté atento al inevitable titular del próximo mes: "Otro abogado más sancionado por casos falsos generados con inteligencia artificial".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd