Incidentes Asociados

Un abogado de Nueva York se enfrenta ahora a una audiencia judicial porque su bufete de abogados utilizó la herramienta de IA ChatGPT para realizar una investigación legal. .
El juez a cargo del caso expresó que el tribunal se enfrentó a una "circunstancia sin precedentes" cuando se descubrió que los casos legales a los que se hacía referencia eran inexistentes.
Durante el proceso judicial, el abogado que empleó la herramienta de IA afirmó que desconocía la posibilidad de que la información que generaba pudiera ser falsa.
ChatGPT tiene la capacidad de generar texto original a pedido, pero viene con una nota de advertencia de que a veces puede proporcionar información inexacta.
En el caso original, un hombre presentó una demanda contra una aerolínea alegando daños personales. Su equipo legal presentó un escrito que hacía referencia a varios casos judiciales anteriores en un esfuerzo por establecer un precedente y justificar por qué el caso debe proceder.
Sin embargo, los [abogados] opuestos (https://greekreporter.com/2020/02/13/esteemed-lawyers-and-judges-to-rule-at-nhm-trial-of-helen-of-troy/) que representan la aerolínea luego escribió al juez, expresando su incapacidad para localizar algunos de los casos mencionados en el escrito.
El juez Castel escribió en una orden: "Seis de los casos presentados parecen ser decisiones judiciales falsas con citas falsas y citas internas falsas". Además, el juez también exigió que el equipo legal del hombre se explicara.
Casos inexistentes
Como se reconoció en una declaración jurada, el tribunal determinó que los siguientes casos eran inexistentes:
1. Varghese contra China Southern Airlines Co Ltd, 925 F.3d 1339 (11th Cir. 2019)
2. Shaboon v. Egyptair 2013 IL App (1st) 111279-U (Il App. Ct. 2013)
3. Petersen c. Iran Air 905 F. Supp 2d 121 (D.D.C. 2012)
4. Martinez v. Delta Airlines, Inc, 2019 WL 4639462 (Tex. App. 25 de septiembre de 2019)
5. Estate of Durden v. KLM Royal Dutch Airlines, 2017 WL 2418825 (Ga. Ct. App. 5 de junio de 2017)
6. Miller contra United Airlines, Inc, 174 F.3d 366 (2d Cir. 1999)
Tribunal exige una explicación
A lo largo de múltiples presentaciones, se reveló que la investigación legal en cuestión no había sido realizada por el abogado del demandante, Peter LoDuca, sino por uno de sus colegas en el mismo [bufete de abogados] (https://greekreporter.com/2023/ 18/04/grecia-contrata-nosotros-bufete de abogados-turkaegean-trademark/).
Steven A Schwartz, un abogado con más de 30 años de experiencia, utilizó ChatGPT para buscar casos anteriores similares, según BBC.
En su declaración escrita, el Sr. Schwartz aclaró que el Sr. LoDuca no estuvo involucrado en el proceso de investigación y no tenía conocimiento de cómo se había llevado a cabo.
El Sr. Schwartz expresó un profundo remordimiento por confiar en el chatbot, admitiendo que nunca antes lo había usado para investigaciones legales y que desconocía el potencial de contenido inexacto.
Se comprometió a abstenerse de usar IA para "complementar" su investigación legal en el futuro sin una verificación exhaustiva de su autenticidad.
Se ha ordenado a ambos abogados que brinden una explicación de por qué no deben tomarse medidas disciplinarias contra ellos en una audiencia programada para el 8 de junio.