Incidentes Asociados
Dos jueces federales atribuyeron fallos erróneos al uso de herramientas de inteligencia artificial por parte de su personal, lo que generó dudas sobre el grado de rigor con que revisan los documentos emitidos a su nombre.
Los jueces de distrito estadounidenses Julien Neals en Nueva Jersey y Henry Wingate en Misisipi admitieron las deficiencias de la IA en cartas dirigidas a la Oficina Administrativa de los Tribunales de Estados Unidos. Las dos misivas enviadas el 20 y 21 de octubre en respuesta a las preguntas formuladas por el presidente del Comité Judicial del Senado, Chuck Grassley (republicano por Iowa), fueron analizadas por Bloomberg Law.
Según Bruce Green, profesor de la Facultad de Derecho de la Universidad de Fordham, estos errores suscitan inquietudes sobre el poder judicial que no pueden justificarse con la llegada de la IA generativa. “Las excusas de los jueces suscitan la duda de si publican regularmente borradores de sentencias”, afirmó.
Los fallos erróneos y las respuestas de los jueces demuestran que los tribunales pueden esperar el mismo tipo de escrutinio en la supervisión del uso de la IA que los propios jueces han aplicado a los abogados que ejercen ante ellos. Varios abogados han sido sancionados por el uso indebido de la IA en la redacción de escritos judiciales.
El juez Neals declaró en su carta que un estudiante de derecho en prácticas de su despacho utilizó Chat GPT para realizar investigaciones jurídicas, lo que derivó en una orden del 30 de junio que contenía citas de casos inexistentes. El estudiante no tuvo acceso a información confidencial ni no pública al utilizar la herramienta de IA, añadió.
El juez Wingate afirmó que su asistente jurídico utilizó la herramienta de IA Perplexity como asistente de redacción, lo que resultó en una orden de restricción temporal del 20 de julio que hacía referencia a partes, alegaciones y citas ajenas al caso. Wingate afirmó que el secretario no ingresó ninguna información confidencial o no pública sobre el caso en Perplexity.
"Era un borrador que nunca debió haberse registrado", escribió Wingate. "Fue un error". Añadió que "no se sometió el borrador de la opinión al proceso de revisión final".
Ninguno de los jueces respondió a las solicitudes de comentarios el jueves.
Responsabilidad Judicial
Ya sea que se redacten con IA o mediante investigación tradicional, los jueces son responsables de garantizar que las citas en sus decisiones sean auténticas, afirmó Stephen Gillers, profesor de la Facultad de Derecho de la Universidad de Nueva York.
"El juez debe leer el caso que cita", dijo Gillers. "Si el juez cita un caso, ya sea que provenga de IA o de un secretario que realiza investigación tradicional, el juez debe leerlo".
Green, director del centro de derecho y ética de Fordham, señaló que los errores de los jueces generan dudas sobre la frecuencia con la que registran borradores no verificados. ¿Fue “mera coincidencia que, en la rara ocasión en que dos jueces publicaron inadvertidamente borradores de opiniones, estos hicieran un mal uso de la IA generativa”?
El juez Wingate indicó en su carta que, en adelante, todos los borradores de decisiones en su despacho deberán someterse a una revisión independiente por parte de un segundo asistente jurídico antes de serle presentados. También señaló que todos los casos citados en una resolución deberán ir acompañados de copias impresas de dichos casos.
El juez Neals afirmó que el uso de ChatGPT por parte de su pasante infringió la política de su despacho contra el uso de IA generativa en la investigación jurídica y la redacción de resoluciones. Añadió que ahora ha plasmado esta política por escrito, mientras que antes solo existía un acuerdo verbal.
“He tomado medidas preventivas en mi despacho”, declaró.
Sin embargo, prohibir la IA —una “herramienta de investigación útil”— es una reacción desproporcionada, afirmó Gillers, especialmente considerando lo común que se ha vuelto su uso en la práctica jurídica.
“Lo que el juez debería decir es que aprendan a usar la IA y que la usen con precaución”, concluyó. "El juez que prohíbe el uso de la IA bajo cualquier circunstancia está equivocado."
Investigación del Senado
El senador Grassley inició una investigación después de que ambos jueces revocaran y reemplazaran los fallos que los abogados de los casos habían señalado como problemáticos. No tiene una recomendación específica, más allá de pedir a los tribunales que garanticen que los derechos de las partes litigantes no se vean vulnerados por las nuevas tecnologías.
"El poder judicial necesita desarrollar políticas y directrices sobre IA más decisivas, significativas y permanentes", declaró Grassley. "No podemos permitir que la pereza, la apatía o la excesiva dependencia de la asistencia artificial socaven el compromiso del poder judicial con la integridad y la veracidad de los hechos."
Los jueces enviaron sus cartas de respuesta a las preguntas de Grassley a Robert Conrad, director de la Oficina Administrativa de los Tribunales de los Estados Unidos y exjuez del Tribunal de Distrito de los Estados Unidos para el Distrito Oeste de Carolina del Norte. Su oficina sirve de enlace entre el poder judicial y los miembros del Congreso.
En su carta, el juez Conrad incluyó recomendaciones sobre el uso de la IA elaboradas por un grupo de trabajo que él mismo convocó a principios de este año. La guía provisional advierte sobre los riesgos de delegar funciones judiciales esenciales a la IA, como la resolución de casos, especialmente cuando se trata de cuestiones jurídicas novedosas.
La guía también indica que los usuarios deben verificar de forma independiente todos los resultados generados por la IA, y recuerda a los jueces, al personal judicial y a quienes aprueban el uso de la IA que son responsables de todo el trabajo realizado con su asistencia.
La oficina administrativa de los tribunales estadounidenses no respondió de inmediato a la solicitud de comentarios.