Incidentes Asociados
Una jueza federal ha enviado otro mensaje a los abogados que puedan verse tentados a usar inteligencia artificial generativa: revisen siempre su trabajo.
En una decisión emitida el lunes, la jueza Nina Y. Wang, del Tribunal de Distrito de EE. UU. para el Distrito de Colorado, impuso sanciones a dos abogados que representaron a Mike Lindell, fundador de MyPillow, conocido por difundir teorías conspirativas sobre las elecciones presidenciales de 2020.
En febrero, según la jueza Wang, los abogados presentaron un escrito judicial en un caso de difamación contra el Sr. Lindell que contenía "casi 30 citas defectuosas". Citaba erróneamente casos judiciales, tergiversaba principios jurídicos y, "lo más flagrante", citaba "casos inexistentes", escribió.
La jueza Wang afirmó que los abogados, Christopher I. Kachouroff y Jennifer T. DeMaster, no habían explicado cómo tales errores pudieron haber terminado en la presentación "sin el uso de inteligencia artificial generativa o una grave negligencia por parte del abogado".
La jueza Wang determinó que habían violado una norma federal que exige a los abogados certificar que las alegaciones que presentan en los documentos judiciales están fundamentadas en la ley. Les impuso una multa de 3.000 dólares a cada uno, calificándola de "la sanción menos severa, suficiente para disuadir y castigar a la defensa en este caso".
El Sr. Kachouroff y la Sra. DeMaster no respondieron de inmediato el martes a los mensajes solicitando comentarios sobre las multas.
En una audiencia celebrada en abril, la jueza Wang preguntó al Sr. Kachouroff si el documento judicial que contenía los errores había sido generado mediante inteligencia artificial generativa.
"No inicialmente", respondió el Sr. Kachouroff, según documentos judiciales. "Inicialmente, hice un esquema, redacté una moción y luego la procesamos mediante IA".
La jueza Wang también preguntó al Sr. Kachouroff si había verificado las citaciones del documento.
"Su Señoría, yo personalmente no lo revisé", dijo, según documentos judiciales. "Soy responsable de que no se haya verificado".
El Sr. Kachouroff declaró posteriormente en los documentos judiciales que la línea de preguntas del juez lo había "tomado por sorpresa".
"No entendía lo que estaba sucediendo porque mi abogado y yo no nos habíamos basado en la investigación jurídica con IA y habíamos preparado un documento final con una exhaustiva verificación de citas para su presentación", declaró el Sr. Kachouroff.
Sin embargo, afirmó que su abogado, la Sra. DeMaster, "presentó por error" un borrador del expediente judicial en lugar de la versión final que habían "comprobado y editado cuidadosamente". Cuando ella subió el documento, el Sr. Kachouroff declaró que estaba de vacaciones en México y tenía acceso limitado a internet.
El Sr. Kachouroff añadió que, si bien suele utilizar programas de IA para analizar sus argumentos y los de la oposición, "no confío en la IA para realizar investigación jurídica ni encontrar casos". "Independientemente de si utilizo inteligencia artificial en un alegato en particular, siempre verifico las citaciones antes de presentarlas", añadió.
La Sra. DeMaster declaró en su propia presentación en abril que había subido por error el borrador del escrito judicial, creyendo que era la versión final.
"Pido disculpas sinceras al tribunal por presentar la versión incorrecta y por las molestias que esto ha causado a este tribunal y a las partes", escribió. "No se hizo intencionalmente, ni para engañar al tribunal, ni de mala fe, ni con ningún propósito indebido".
La jueza Wang declaró en su fallo del lunes que no estaba convencida de que la presentación "fuera simplemente un error involuntario, dadas las declaraciones contradictorias y la falta de pruebas que las corroboraran".
El Sr. Lindell perdió el caso de difamación el mes pasado y se le ordenó pagar 2,3 millones de dólares en daños y perjuicios a Eric Coomer, exempleado de Dominion Voting Systems. Coomer lo acusó de llamarlo "traidor a Estados Unidos" y le dijo que debía entregarse a las autoridades, según documentos judiciales.
Las sanciones se produjeron mientras abogados, junto con estudiantes, profesores, periodistas y otros, luchaban por encontrar la manera adecuada de aprovechar el inmenso poder de la inteligencia artificial, garantizando al mismo tiempo la originalidad y precisión de su trabajo. El Colegio de Abogados de Estados Unidos (American Bar Association), en su primera guía ética para abogados sobre el uso de IA generativa, señaló el año pasado que muchos abogados habían estado utilizando herramientas de IA para mejorar la eficiencia y la calidad de los servicios legales que prestan.
Sin embargo, el colegio advirtió que confiar ciegamente en dichas herramientas puede resultar en asesoramiento legal inexacto a los clientes o declaraciones engañosas ante tribunales y terceros.
Añadió que los abogados deben ejercer un grado adecuado de verificación o revisión independiente del contenido generado por IA para garantizar que no incumplen su deber de brindar una representación competente a sus clientes.
El mes pasado, el Tribunal Superior de Inglaterra y Gales advirtió a los abogados que podrían enfrentar un proceso penal por presentar material falso generado por inteligencia artificial después de que una serie de casos citaran citas inventadas y fallos que no existían.