Incidentes Asociados
En lo que se ha convertido en un patrón inquietantemente familiar en los tribunales de todo Estados Unidos, han surgido dos casos más de abogados que presentan escritos con citas legales inexistentes generadas por herramientas de IA.
En este punto, cabe preguntarse si la profesión jurídica necesita un curso obligatorio de formación jurídica continua titulado "Cómo evitar convertirse en el próximo titular de alucinaciones de IA".
Aún más inquietante, quizás, es que uno de los casos involucra a un importante bufete internacional conocido por su experiencia en litigios.
Sanciones por investigación generada con IA
En el primero de estos dos casos más recientes, presentado ante el Tribunal de Distrito de los Estados Unidos para el Distrito Central de California, abogados de los bufetes Ellis George LLP y K&L Gates LLP presentaron un escrito al Perito Especial Michael Wilner que contenía numerosas citas falsas.
Los abogados utilizaron herramientas de IA, como CoCounsel, Westlaw Precision y Google Gemini, para delinear y generar su escrito.
Trent Copeland, abogado de Ellis George, admitió haber utilizado estas herramientas de IA para crear un esquema que luego compartió con colegas, incluyendo abogados de K&L Gates, sin mencionar su origen en la IA ni verificar las citas. Sus colegas incorporaron las autoridades inventadas en el escrito final sin verificarlas.
Cuando el perito judicial cuestionó inicialmente dos citas sospechosas, los abogados presentaron una versión "corregida", y un asociado de K&L Gates agradeció al perito judicial por detectar los errores y aseguró que las citas en el escrito revisado habían sido "abordadas y actualizadas".
El problema era que el escrito corregido aún contenía al menos otros seis errores generados por la IA. En sus declaraciones, los abogados confesaron que aproximadamente nueve de las 27 citas legales en su escrito de 10 páginas eran incorrectas de alguna manera, incluyendo dos casos completamente inexistentes.
El perito judicial Wilner no se anduvo con rodeos y concluyó que los abogados habían "actuado colectivamente de una manera que equivalía a mala fe". Reprendió al abogado que elaboró inicialmente el escrito por confiar en la IA sin verificar su exactitud y por enviarlo posteriormente a sus colegas sin revelar su "dudoso origen en la IA".
También reprendió a los abogados de K&L Gates, calificando su conducta de "profundamente preocupante" por no verificar la validez de la investigación que se les envió, tanto del escrito original como del supuesto escrito corregido, después de haber sido notificados de citas falsas.
Como resultado, el perito judicial decidió imponer sanciones, específicamente:
- Eliminar todas las versiones del escrito complementario de los abogados.
- Denegar la solicitud de descubrimiento de pruebas que solicitaban.
- Ordenar a los bufetes de abogados a pagar conjuntamente $31,100 en honorarios legales del demandado.
- Exigir la divulgación del asunto a su cliente.
Wilner calificó la situación de "aterradora", señalando que se sintió "convencido (o al menos intrigado) por las autoridades que citaban, y consultó las decisiones para obtener más información sobre ellas, solo para descubrir que no existían. Eso es aterrador. Casi condujo al resultado aún más aterrador (desde mi perspectiva) de incluir esos materiales falsos en una orden judicial".
En Toronto, Citaciones Fantasma
En Toronto, en el caso Ko contra Li, la abogada Jisuh Lee se vio en apuros cuando el juez del Tribunal Superior de Ontario, Fred Myers, descubrió que su escrito de demanda contenía citas de dos casos que simplemente no existen.
Cuando el juez le preguntó a Lee sobre esto y si había utilizado IA para preparar el escrito, ella respondió que su oficina no suele utilizar IA, pero que consultaría con su secretario. No pudo proporcionar citas corregidas de los casos ni copias de los mismos.
Tras la audiencia, el juez revisó de nuevo el escrito y encontró dos citas incorrectas más: una a un caso inexistente y otra a un caso que defendía la proposición contraria a la citada.
"Parece que el escrito de la Sra. Lee pudo haber sido creado por IA y que, antes de presentarlo y basarse en él ante el tribunal, es posible que no haya comprobado que los casos fueran reales o que respaldaran las proposiciones de derecho que presentó al tribunal por escrito y luego oralmente", concluyó el juez.
"Es evidente que es deber del abogado leer los casos antes de presentarlos ante un tribunal como autoridad jurisprudencial", continuó. Como mínimo, es deber del abogado no presentar pruebas que no existan o que contradigan su argumento.
En consecuencia, el juez ordenó a la abogada que justificara por qué no debía ser citada por desacato. "Tendrá una oportunidad justa de presentar pruebas para explicar lo sucedido si así lo desea".
¿Cuándo aprenderán los abogados?
A pesar de la creciente cantidad de sanciones, la vergüenza pública y las advertencias judiciales, los abogados siguen presentando alucinaciones generadas por IA a los tribunales. Esto ocurre a pesar de los dictámenes éticos de los colegios de abogados, las advertencias judiciales y suficientes artículos sobre tecnología legal como para llenar una biblioteca virtual.
Cabe preguntarse cuántos jueces más tendrán que imponer sanciones para que se entienda el mensaje: las herramientas de IA pueden ser útiles para la lluvia de ideas, pero no sustituyen la investigación jurídica tradicional ni la práctica ancestral de verificar las citas.
Hasta que los abogados capten este mensaje, podemos esperar que la serie de historias de terror sobre alucinaciones generadas por IA continúe. Mientras tanto, esté atento al inevitable titular del próximo mes: "Otro abogado más sancionado por casos falsos generados con inteligencia artificial".