Incidentes Asociados
Un abogado en Nueva York fue atrapado este mes usando el chatbot ChatGPT para "citar" casos legales que inventó el [chatbot] (https://www.jpost.com/science/article-741578) durante las deliberaciones sobre una demanda. en el Tribunal de Distrito de los Estados Unidos para el Distrito Sur de Nueva York.
La situación surgió cuando Roberto Mata demandó a Avianca Airlines por las lesiones que sufrió durante un vuelo en 2019. Mientras que Mata estuvo representado por el abogado Peter LoDuca en la corte, un colega de LoDuca, Steven A. Schwartz, ayudó a realizar la investigación legal del caso.
Schwartz citó varios supuestos casos pasados en una declaración jurada ante el tribunal, pero el tribunal se sorprendió al descubrir que los casos citados no existían o eran "falsos".
"La Corte se enfrenta a una circunstancia sin precedentes", escribió el juez de distrito Peter Kevin Castel en una orden a LoDuca para explicar la presentación defectuosa. Los documentos judiciales se encuentran en el sitio web CourtListener.
En una declaración jurada ante el tribunal, Schwartz escribió que "dado que el uso de la inteligencia artificial generativa ha evolucionado dentro de los bufetes de abogados, su declarante consultó el [sitio web de inteligencia artificial ChatGPT] (https://www.jpost.com/business-and-innovation /all-news/article-743252) para complementar la investigación legal realizada".
Schwartz agregó que ChatGPT "proporcionó su fuente legal y aseguró la confiabilidad de su contenido", y enfatizó que, dado que nunca antes había usado ChatGPT, "no estaba al tanto de la posibilidad de que su contenido pudiera ser falso" y que no tenía intención de engañar a la corte.
El abogado dice que "lamenta mucho" usar IA para complementar la investigación legal
El abogado agregó que "lamenta mucho haber utilizado inteligencia artificial generativa para complementar la investigación legal realizada en este documento y nunca hacerlo en el futuro sin una verificación absoluta de su autenticidad".
Schwartz incluyó capturas de pantalla de las consultas que hizo usando ChatGPT en la declaración jurada, que incluyen que le pregunte al chatbot si uno de los casos citados "es un caso real".
Después de que el chatbot afirmara que lo era, Schwartz preguntó cuál era su fuente y el bot respondió: "Me disculpo por la confusión anterior. Al verificar dos veces, descubrí que el caso Varghese v. China Southern Airlines Co. Ltd., 925 F.3d 1339 (11th Cir.2019), de hecho existe y se puede encontrar en bases de datos de investigación legal como Westlaw y LexisNexis".
LoDuca subrayó en una declaración jurada ante el tribunal que Schwartz ha ejercido la abogacía en Nueva York durante más de 30 años y que "nunca ha tenido conocimiento de que haya hecho una declaración deliberadamente falsa a un acusado, o de que tenga la intención de engañar o engañar". inducir a error a ningún tribunal".