Incidentes Asociados

Todos conocemos la tristemente célebre historia de los abogados que presentaron un escrito lleno de casos inexistentes, cortesía de ChatGPT, la herramienta de inteligencia artificial que inventó, también conocida como “alucinación”, las citaciones falsas. Al final, el juez Kevin Castel (S.D.N.Y.) sancionó a los abogados, con una multa de 5.000 dólares, pero la notoriedad nacional seguramente fue mucho peor.
Los abogados infractores, Steven Schwartz y Peter LoDuca, trabajaban en un pequeño bufete de abogados de Nueva York llamado Levidow, Levidow & Oberman. Y parece que su metedura de pata se debió en parte a las limitaciones de recursos, con las que suelen luchar las pequeñas empresas. Como explicaron al juez Castel en la audiencia de sanciones, en ese momento su firma no tenía acceso a Westlaw o LexisNexis (que son, como todos sabemos, extremadamente caros) y el tipo de suscripción que tenían a Fastcase no les proporcionaba acceso completo a los casos federales.
Pero ¿qué pasa con los abogados que trabajan para una de las firmas de abogados más grandes del país? No deberían tener ninguna excusa, ¿verdad?
Ya sea que tengan una excusa o no, parece que ellos también pueden cometer el mismo error. Ayer, la jueza Kelly Rankin del Distrito de Wyoming emitió una orden para presentar la causa en Wadsworth v. Walmart Inc. (énfasis en el original):
Este asunto se encuentra ante el Tribunal por propia iniciativa. El 22 de enero de 2025, los demandantes presentaron sus Mociones in Limine. [ECF No. 141]. En el mismo, los demandantes citaron nueve casos en total:
1. Wyoming v. Departamento de Energía de EE. UU., 2006 WL 3801910 (D. Wyo. 2006);
2. Holland v. Keller, 2018 WL 2446162 (D. Wyo. 2018);
3. Estados Unidos v. Hargrove, 2019 WL 2516279 (D. Wyo. 2019);
4. Meyer v. Ciudad de Cheyenne, 2017 WL 3461055 (D. Wyo. 2017);
5. Estados Unidos v. Caraway, 534 F.3d 1290 (10th Cir. 2008);
6. Benson v. Estado de Wyoming, 2010 WL 4683851 (D. Wyo. 2010);
7. Smith v. Estados Unidos, 2011 WL 2160468 (D. Wyo. 2011);
8. Woods v. BNSF Railway Co., 2016 WL 165971 (D. Wyo. 2016); y
9. Fitzgerald v. Ciudad de Nueva York, 2018 WL 3037217 (S.D.N.Y. 2018).
Véase [ECF No. 141].
El problema con estos casos es que no existe ninguno, excepto United States v. Caraway, 534 F.3d 1290 (10th Cir. 2008). Los casos no se pueden identificar por su cita en Westlaw, y el Tribunal no puede localizar los casos del Distrito de Wyoming por su nombre de caso en su Sistema de Presentación Electrónica de Casos en el Tribunal local. Los acusados afirman a través de sus abogados que "al menos algunos de estos casos citados incorrectamente se pueden encontrar en ChatGPT". [ECF No. 150] (que proporciona una imagen de ChatGPT localizando "Meyer v. City of Cheyenne" a través del identificador falso de Westlaw).
Como se podría esperar, el juez Rankin no está... contento:
Cuando se enfrentan a situaciones similares, los tribunales han ordenado a los abogados que presentan los casos que demuestren por qué no se deben emitir sanciones o medidas disciplinarias. Mata v. Avianca, Inc., No. 22-CV-1461 (PKC), 2023 WL 3696209 (S.D.N.Y. 4 de mayo de 2023); Estados Unidos v. Hayes, No. 2:24-CR-0280-DJC, 2024 WL 5125812 (E.D. Cal. 16 de diciembre de 2024); Estados Unidos v. Cohen, No. 18-CR-602 (JMF), 2023 WL 8635521 (S.D.N.Y. 12 de diciembre de 2023). En consecuencia, el Tribunal ordena lo siguiente:
SE ORDENA que al menos uno de los tres abogados proporcione una copia fiel y exacta de todos los casos utilizados en apoyo de [ECF No. 141], excepto por United States v. Caraway, 534 F.3d 1290 (10th Cir. 2008), a más tardar a las 12:00 p. m., hora estándar de las Montañas Rocosas, el 10 de febrero de 2025.
Y si no pueden proporcionar los casos en cuestión, los abogados “deberán demostrar por escrito por separado por qué no se lo debe sancionar de conformidad con: (1) Fed. R. Civ. P. 11(b), (c); (2) 28 U.S.C. § 1927; y (3) el poder inherente del Tribunal para ordenar sanciones por citar casos inexistentes ante el Tribunal”. Y esta presentación escrita, que debe presentarse el 13 de febrero, “tomará la forma de una declaración jurada” que contiene “una explicación detallada de cómo se generaron la moción y los casos falsos”, así como una explicación de cada abogado sobre “su papel en la redacción o supervisión de la moción”.
¿Quiénes son los abogados detrás de este aparente error? Se los menciona por su nombre en la página tres de la orden:
Los tres abogados abajo firmantes de la [ECF No. 141] son:
Sr. Rudwin Ayala;
Sra. Taly Goody; y
Como puede ver en las firmas de las mociones in limine, Taly Goody trabaja en Goody Law Group, una firma con sede en California que parece tener tres abogados. Pero Rudwin Ayala y Michael Morgan trabajan en el gigante Morgan and Morgan, que se describe en su sitio web como “la firma de abogados especializada en lesiones más grande de Estados Unidos™” y es la firma número 42 del país en términos de personal, según The American Lawyer.
Moraleja de la historia: los abogados de las grandes firmas pueden hacer un mal uso de ChatGPT tan bien como cualquiera. Y aunque Morgan and Morgan es una firma de demandantes (lo que podría hacer que los abogados presuntuosos de las grandes firmas de defensa digan, con un toque de altivez, “por supuesto que lo es”), creo que es solo cuestión de tiempo antes de que una firma de defensa, Am Law 100, cometa un paso en falso similar en una presentación pública.
Estas historias de “abogados que cometen errores con ChatGPT” tienden a ser populares entre los lectores, que es una de las razones por las que he escrito esta, pero no quiero exagerar su importancia. Como le dije a Bridget McCormack y Zach Abramowitz en el Podcast AAAi, “ChatGPT no comete estos errores; los humanos que usan ChatGPT de forma indebida cometen estos errores”. Pero las historias a veces se vuelven virales porque tienen un cierto valor de novedad: la IA es, al menos en el mundo de la práctica legal, todavía (relativamente) nueva.
El peligro, sin embargo, es que las historias del “fracaso de ChatGPT” podrían tener un efecto paralizante, en términos de disuadir a los abogados de explorar (responsablemente) cómo la IA y otras tecnologías transformadoras pueden ayudarlos a atender a sus clientes de manera más eficiente y eficaz. Como dijo McCormack en el podcast AAAi después de que mencioné la debacle del Distrito Sur de Nueva York, “Todavía estoy enojado con ese abogado del Distrito Sur de Nueva York porque siento que hizo retroceder a toda la profesión dos años. Estoy literalmente muy enojado con ese tipo”.
Me comuniqué con Ayala, Goody y Morgan por correo electrónico, pero aún no he recibido respuesta; si la recibo, actualizaré esta publicación. De lo contrario, sintonice la próxima semana, cuando presentarán sus respuestas a la orden de mostrar causa.
Mientras tanto, si confías en ChatGPT u otra herramienta de inteligencia artificial para la investigación jurídica, por favor, por favor utiliza una plataforma de investigación jurídica real para confirmar que (1) los casos existen y (2) los has citado correctamente. No es demasiado pedir, ¿verdad?
ACTUALIZACIÓN (5:21 p. m.): Si desea aprender cómo aprovechar la IA de manera responsable para brindar un mejor servicio a sus clientes, consulte estos excelentes recursos de Hotshot, e incluso puede obtener créditos CLE por ello (según su jurisdicción).
ACTUALIZACIÓN (8/2/2025, 12:48 a. m.): Los tres abogados que representan a los demandantes en Wadsworth v. Walmart retiraron sus mociones in limine el viernes por la noche, según informó Law360, por lo que presumiblemente saben que hay problemas con ellas. Pero los abogados aún no han explicado por qué las mociones contienen lo que parecen ser autoridades inventadas.
El artículo de Law360 también contiene algunos detalles sobre la demanda en sí: “El litigio subyacente fue presentado en julio de 2023 por Stephanie y Matthew Wadsworth en nombre de sus cuatro hijos menores después de que alegaran que un 'hoverboard defectuoso e irrazonablemente peligroso' explotó y se incendió en su casa. La familia alega que el producto, un Jetson Plasma Iridescent Hoverboard, es defectuoso, peligroso y funcionaba mal cuando se usaba de la manera prevista”.