Incidentes Asociados

El ajuste de cuentas de la profesión jurídica con ChatGPT ha ido más allá de los errores de las pequeñas empresas. En un ejemplo sorprendente de cómo la IA puede llevar a los abogados a un montón de líos, los abogados de Morgan & Morgan (la firma de abogados especializada en lesiones más grande del país, con más de 1000 abogados) ahora enfrentan posibles sanciones por citar ocho casos inventados en una presentación ante un tribunal federal de Wyoming.
El incidente, informado por David Lat en su blog de substack Original Jurisdiction, se hace eco de las sanciones de Levidow, Levidow & Oberman de 2023, pero elimina la excusa de los recursos limitados, destacando los riesgos sistémicos de la dependencia de la IA.
El 22 de enero de 2025, los abogados de los demandantes presentaron mociones in limine citando nueve casos, ocho de los cuales no se pudieron localizar en los registros judiciales o bases de datos legales. Solo United States v. Caraway (10th Cir. 2008) resultó válido. El abogado defensor alegó que ChatGPT generó las citaciones fantasma, incluidas sentencias ficticias como Meyer v. City of Cheyenne con identificadores Westlaw inventados.
La orden del 7 de febrero de la jueza Kelly Rankin exige que los abogados Rudwin Ayala (Morgan & Morgan), Taly Goody (Goody Law Group) y Timothy Michael Morgan (Morgan & Morgan) presenten copias válidas de los casos antes del 10 de febrero o se enfrenten a sanciones en virtud de la Regla 11, § 1927, y la autoridad inherente del tribunal.
- Escala vs. Escrutinio: Los vastos recursos de Morgan & Morgan, a diferencia de las dificultades de acceso a Westlaw de la firma Levidow, hacen que este lapso sea más difícil de justificar. La firma ocupa el puesto número 42 en la Am Law 100 por número de empleados, pero las brechas de supervisión permitieron errores no detectados.
- La espada de doble filo de la IA: si bien herramientas como ChatGPT contribuyen a la eficiencia, el caso de Wyoming subraya la necesidad innegociable de verificación. Como señaló la expresidenta de la Corte Suprema de Michigan, Bridget McCormack, en el podcast de la AAAI, el uso descontrolado de la IA corre el riesgo de "hacer retroceder a la profesión" al erosionar la confianza judicial.
- Precedente más amplio: el juez Rankin citó el caso Mata v. Avianca (S.D.N.Y. 2023), donde las alucinaciones de ChatGPT dieron lugar a sanciones, como modelo para la rendición de cuentas. Los tribunales exigen cada vez más declaraciones juradas que expliquen el uso de la IA en los expedientes.
¿Qué lecciones pueden aprender los abogados de esto, además de comprobar, volver a comprobar y volver a comprobar las citas, cuando utilizan la IA para sus presentaciones de casos?
- Verificar, luego confiar: comparar las citas generadas por IA con plataformas autorizadas como Westlaw o LexisNexis. Incluso la cita Caraway del Décimo Circuito en este caso era válida, pero estaba sepultada entre mentiras.
- Protocolos de supervisión: con tres abogados nombrados en la orden, las firmas deben aclarar los roles en la redacción y revisión. El tribunal requiere que cada abogado detalle su participación antes del 13 de febrero.
- Guardavías éticos: la Regla modelo 1.1 de la ABA (competencia) y la Opinión 498 (ética de la tecnología) exigen comprender las limitaciones de la IA.
Para las firmas, este caso es una llamada de atención: ningún tamaño de práctica protege contra la negligencia en materia de citaciones.
Las grandes firmas de abogados siguen explorando nuevas aplicaciones de la IA y se anuncian nuevos desarrollos tecnológicos legales con regularidad.
- Las firmas están utilizando la IA para realizar resúmenes, transcripciones, análisis de contratos e incluso evaluaciones de asociados, y las firmas de abogados también están creando herramientas de IA personalizadas para necesidades específicas.
Si bien la IA está transformando el trabajo legal en grandes firmas como Morgan & Morgan, existe un énfasis claro en usarla como una herramienta para mejorar la experiencia humana en lugar de reemplazarla. Morgan & Morgan, por ejemplo, según se informa, son usuarios de la herramienta de gestión de la práctica Litify para hacer crecer su práctica hasta el tamaño preeminente que es hoy. También cuentan con un “Centro de Excelencia en IA” para garantizar que los resultados de la IA sean precisos.
Pero no en esta ocasión. El caso que informó David Lat es un recordatorio más que sobrio de los peligros de no tener herramientas para verificar las citas de IA, y cualquier otra presentación o disposición contractual generada por IA.
LawFuel monitoreará las presentaciones de los abogados para las respuestas del 10 y 13 de febrero.
Fuentes: Wadsworth v. Walmart Inc., ECF No. 150 Orden del juez Rankin para demostrar causa Ranking de The American Lawyer 2024 Podcast de AAAI: IA en la práctica legal Mata v. Avianca, 2023 WL 3696209