Incidentes Asociados
Dos jueces federales de Nueva Jersey y Misisipi admitieron este mes que sus oficinas utilizaron inteligencia artificial para redactar documentos judiciales con errores de hecho, incluyendo citas falsas y litigantes ficticios, lo que provocó una reprimenda del presidente del Comité Judicial del Senado.
"Nunca he visto ni oído hablar de algo así en ningún tribunal federal", declaró el senador Chuck Grassley (republicano por Iowa) en un discurso ante el Senado el lunes.
El comité anunció el jueves que los jueces, Henry T. Wingate del Distrito Sur de Misisipi y Julien Xavier Neals del Distrito de Nueva Jersey, admitieron que sus oficinas utilizaron IA para preparar los documentos plagados de errores durante el verano. Atribuyeron los errores a un asistente legal y a un estudiante de derecho en prácticas, respectivamente, según las cartas que los jueces enviaron en respuesta a una investigación del Senado.
Ambos documentos judiciales defectuosos fueron registrados y tuvieron que ser retirados apresuradamente después de que los demandados alertaran a los jueces sobre los errores. Ninguno de los jueces explicó la causa de los errores hasta que el comité se puso en contacto con ellos.
El uso de inteligencia artificial generativa se ha vuelto más común en el sistema judicial estadounidense. Wingate y Neal se suman a decenas de abogados y litigantes que han sido reprendidos por usar IA para generar documentos legales plagados de errores.
Los grupos jurídicos aún se están poniendo al día. La Oficina Administrativa de los Tribunales de EE. UU., que apoya al sistema judicial federal, emitió en julio una guía provisional que sugiere a los usuarios "considerar si se debe divulgar el uso de IA" en las funciones judiciales. También ha creado un grupo de trabajo para emitir directrices adicionales sobre el uso de IA en los tribunales federales.
Grassley declaró el lunes que los tribunales federales deben establecer normas sobre el uso de IA en los litigios.
"Exhorto a todos los jueces de Estados Unidos a que se tomen este asunto en serio y formalicen medidas para prevenir el mal uso de la inteligencia artificial en sus juzgados", afirmó.
Wingate y Neals indicaron en sus cartas que tomaron medidas correctivas tras ser alertados sobre los errores e implementarán revisiones adicionales de los documentos judiciales antes de su presentación. Neals afirmó haber establecido una política escrita en su despacho que prohíbe el uso de inteligencia artificial generativa en la investigación jurídica o la redacción de documentos judiciales.
Wingate no respondió de inmediato a la solicitud de comentarios. La oficina de Neals declinó hacer comentarios.
Wingate, a quien el presidente Ronald Reagan nombró para el tribunal en 1985, supervisaba un caso presentado por la Federación de Maestros de Jackson y otros grupos de defensa contra la Junta Estatal de Educación de Mississippi y otros organismos estatales. La demanda impugnaba una ley estatal que prohibía a las escuelas públicas impartir "ideología transgénero" y "formación en diversidad" sobre temas de raza, género y orientación sexual.
El 20 de julio, Wingate concedió una orden de restricción temporal que impedía al estado aplicar partes de la prohibición. Dos días después, en una moción de aclaración, los abogados de Mississippi afirmaron que la orden de Wingate estaba plagada de errores.
La orden judicial nombraba a varios demandantes y demandados, entre ellos una hermandad universitaria, un padre de familia de Mississippi, estudiantes y funcionarios gubernamentales, quienes no eran parte del caso, según la respuesta de los abogados de Mississippi. La orden describía alegaciones que no figuraban en la demanda del demandante y citaba falsamente el proyecto de ley como bloqueado, señalaron los abogados. La orden también citaba declaraciones de personas en apoyo de una orden de restricción que no existía.
La oficina de Wingate emitió una orden de restricción corregida esa misma noche e indicó a las partes que ignoraran la anterior. El caso sigue en curso; Wingate concedió una medida cautelar contra el proyecto de ley en agosto, la cual fue apelada por los abogados de Mississippi.
Neals, quien fue designado por el presidente Joe Biden en 2021, emitió una opinión con errores en una demanda colectiva federal por valores contra CorMedix, una compañía farmacéutica, por alegaciones de que engañó a los inversionistas sobre un producto médico.
El 30 de junio, Neals denegó una moción de CorMedix para desestimar la demanda. Aproximadamente un mes después, los abogados de CorMedix escribieron que la opinión de Neals contenía casos inventados y citas inexistentes de casos reales que citaba para fundamentar su fallo. Además, presentaba información errónea sobre los resultados de los casos y sobre si se habían concedido las mociones de apelación para desestimar la demanda. También atribuía citas falsas a CorMedix, según la carta.
La opinión de Neals también se presentó como "autoridad complementaria" en apoyo de otra demanda colectiva, cuyos demandados también plantearon los mismos problemas con su escrito, según la carta.
Neals afirmó que la opinión se emitió por error y la retiró del expediente judicial. El caso sigue en curso.
Los errores en las resoluciones de ambos jueces fueron similares a los causados por las alucinaciones de la IA, donde la IA generativa, que produce texto prediciendo la secuencia de palabras a partir del análisis del contenido escrito, inventa con seguridad hechos y citas falsas. Los observadores rápidamente especularon que los errores provenían del uso de la IA.
Al principio, ante las preguntas de abogados y litigantes, ninguno de los jueces admitió que los errores estuvieran relacionados con la IA. Grassley, en su discurso del lunes, calificó su "falta de transparencia... asombrosa".
Según se informó, el Comité Judicial del Senado se dirigió por escrito a Neals y Wingate a principios de octubre para solicitar información sobre los errores. Ambos jueces respondieron que los errores se debieron a la IA, pero que los documentos presentados eran borradores que se publicaron por error antes de su revisión.
Wingate escribió que un asistente legal de su oficina utilizó la herramienta de IA Perplexity como un "asistente de redacción básico" para sintetizar la información pública disponible en el expediente judicial. Neals escribió que un estudiante de derecho en prácticas utilizó ChatGPT para realizar investigaciones jurídicas.
(The Washington Post tiene acuerdos de colaboración con Perplexity y OpenAI, creador de ChatGPT).
"Gestiono un expediente muy concurrido y me esfuerzo por mantener la confianza pública administrando justicia de manera justa y transparente", escribió Wingate. "Dado que me exijo a mí mismo y a mi personal los más altos estándares de conducta, no espero que un error como este vuelva a ocurrir".
"Si bien mi experiencia en el caso CorMedix fue sumamente desafortunada e imprevisible, espero que, al menos, sirva de base para el trabajo continuo del Grupo de Trabajo de la [Oficina Administrativa de los Tribunales] y, en última instancia, conduzca a nuevas políticas significativas para todos los tribunales federales", escribió Neals.