Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 5185

Incidentes Asociados

Incidente 10732 Reportes
$31,000 Sanction in Lacey v. State Farm Tied to Purportedly Undisclosed Use of LLMs and Erroneous Citations

Loading...
Juez sanciona a bufetes de abogados con 31.000 dólares por un informe generado con inteligencia artificial lleno de errores
webpronews.com · 2025

Un juez de California impuso sanciones a bufetes de abogados que utilizaron IA para la investigación de casos, lo que resultó en un escrito con numerosos errores.

En el caso Lacey contra State Farm, el juez Michael Wilner (perito judicial en el caso) reprendió a los dos bufetes que representaban al demandante por lo que describió como una "investigación falsa generada por IA".

Como se detalla en las órdenes que emití el 15 y el 20 de abril (adjuntas al apéndice de esta orden), el escrito complementario del demandante contenía numerosas citas y citas legales falsas, inexactas y engañosas. Según mi revisión posterior, y respaldada por las declaraciones sinceras de los abogados del demandante, aproximadamente nueve de las 27 citas legales del escrito de diez páginas presentaban algún tipo de error. Al menos dos de las autoridades citadas no existen. Además, varias citas atribuidas a los dictámenes judiciales citados eran falsas y no representaban con precisión dichos materiales. Las declaraciones de los abogados finalmente dejaron claro que la causa del problema fue el uso inapropiado y la dependencia de las herramientas de IA.

Cómo sucedió

El juez Wilner describe la secuencia de eventos, en la que un abogado (el Sr. Copeland) de uno de los dos bufetes (Ellis George) que representaba al demandante "utilizó diversas herramientas de IA para generar un 'esquema' para el escrito complementario. Ese documento contenía la investigación jurídica problemática".

Cuando el abogado envió el esquema al segundo bufete (K&L Gates), este se incluyó en el escrito, sin que los abogados ni el personal realizaran una verificación de citas ni revisaran su exactitud. El juez Wilner afirmó que los abogados del segundo bufete, K&L Gates, desconocían que el documento contenía investigación generada por IA.

Otro inconveniente. Durante mi revisión inicial del escrito del demandante, no pude confirmar la exactitud de dos de las autoridades citadas por los abogados. Poco después de recibir el escrito, les envié un correo electrónico para que solucionaran esta anomalía. Más tarde ese mismo día, K&L Gates volvió a presentar el escrito sin las dos citas incorrectas, pero con problemas generados por IA en el cuerpo del texto. Un abogado asociado me envió un correo electrónico inofensivo agradeciéndome por detectar los dos errores que se "incluyeron inadvertidamente" en el escrito y confirmando que las citas del escrito revisado se habían "abordado y actualizado". No descubrí que los abogados del demandante usaron IA y volvieron a presentar el escrito con muchas más citas inventadas, además de los dos errores iniciales, hasta que emití una OSC posterior solicitando una explicación más detallada. Las declaraciones juradas de los abogados y la posterior presentación del "esquema" generado por IA aclararon la serie de eventos que llevaron a las presentaciones falsas. Las declaraciones también incluyeron disculpas efusivas y admisiones honestas de culpa.

"Ningún abogado razonablemente competente debería" confiar en la IA

El juez Wilner cita a continuación varias normas legales relativas a la responsabilidad de los abogados de proporcionar documentos y escritos precisos, en la medida de lo posible. También lamenta que los tribunales se vean cada vez más obligados a lidiar con abogados que utilizan la IA indebidamente en sus presentaciones. Finalmente, concluye que los abogados actuaron de mala fe y señala que los abogados competentes no deberían utilizar la IA de esta manera. Concluyo que los abogados que participaron en la presentación de los escritos originales y revisados actuaron colectivamente de mala fe. Fink, 239 F.3d, pág. 994. El uso inicial, no revelado, de productos de IA para generar el primer borrador del escrito fue totalmente erróneo. Incluso con los avances recientes, ningún abogado razonablemente competente debería subcontratar la investigación y la redacción a esta tecnología, especialmente sin intentar verificar la exactitud de dicho material. Enviar dicho material a otros abogados sin revelar sus dudosos orígenes en la IA puso, en realidad, a esos profesionales en peligro. El Sr. Copeland admitió con franqueza que esto es lo que ocurrió y se arrepiente sin reservas.

A pesar de determinar que el Sr. Copeland fue el principal responsable de crear la situación, el juez Wilner tuvo mucho que decir sobre la falta de diligencia debida de K&L Gates y el papel que desempeñó.

Sin embargo, la conducta de los abogados de K&L Gates también es profundamente preocupante. No verificaron la validez de la investigación que les enviaron. Como resultado, la información falsa se filtró al Informe Original que leí. Eso es malo. Pero, cuando los contacté y les expliqué mis preocupaciones sobre una parte de su investigación, la solución de los abogados fue eliminar el material falso y presentar el Informe Revisado, que aún contenía media docena de errores de IA. Además, aunque los abogados estaban al tanto de un problema importante con la investigación legal (como lo señaló el destinatario del informe: el Perito Judicial), no me informaron sobre el uso de IA. En cambio, el correo electrónico que transmitía el nuevo informe simplemente sugería un error de producción involuntario, no una confianza indebida en la tecnología. En otras palabras: tenían la información y la oportunidad de solucionar este problema, pero no la aprovecharon. >

Por lo tanto, concluyo que (a) el uso inicial no revelado de IA, (b) la falta de verificación de citas del Escrito Original y (quizás lo más flagrante), (c) la reenvío del Escrito Revisado defectuoso sin la divulgación adecuada del uso de IA, en conjunto, demuestran una conducta imprudente con el propósito indebido de intentar influir en mi análisis de las cuestiones de privilegio en disputa. Los bufetes Ellis George y K&L Gates tuvieron oportunidades adecuadas, antes y después de que se les informara de su error, para evitar que esto sucediera. Su omisión justifica sanciones moderadas en estas circunstancias.

Conclusión y Sanciones

El Juez Wilner emitió su conclusión final, incluyendo su decisión de imponer sanciones.

Una nota final. Dicho directamente, el uso de IA por parte del Demandante me indujo a error. Leí su escrito, me convencieron (o al menos me intrigaron) las autoridades que citaron y consulté las decisiones para obtener más información sobre ellas, solo para descubrir que no existían. Es aterrador. Casi me llevó al resultado aún más aterrador (desde mi punto de vista) de incluir esos materiales falsos en una orden judicial. Se necesita una fuerte disuasión para asegurar que los abogados no recurran al atajo fácil.

Por estas razones, se anulan los escritos suplementarios del demandante y no se concederá ninguna otra medida de descubrimiento sobre la cuestión del privilegio en disputa. Además, se ordena a los bufetes de abogados del demandante (conjunta y solidariamente) pagar una indemnización a la defensa por un total de 31.000 dólares.

Una acusación contundente sobre la fiabilidad de la IA

La experiencia del juez Wilner con la IA es, por desgracia, demasiado común. Las alucinaciones siguen siendo un problema importante para los modelos de IA, e incluso los modelos más recientes siguen teniendo dificultades. De hecho, algunos de los modelos más avanzados de OpenAI alucinan más que los anteriores.

Las empresas de IA están impulsando la adopción generalizada de sus modelos y, lo que es aún más preocupante, algunos legisladores quieren impedir que los estados y las agencias regulen la IA. Como resultado, algunos usuarios creen erróneamente que la IA está lista para abordar cualquier tarea que se le asigne y que se puede confiar en que lo hará con precisión y fiabilidad.

Sin embargo, incidente tras incidente demuestra que la IA aún tiene un largo camino por recorrer antes de que se pueda confiar plenamente en ella para gestionar incluso las tareas más básicas, como investigar casos legales sin inventarlos.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd