Incidentes Asociados

Un abogado en Nueva York se ha metido en problemas con un juez después de que presentó una investigación legal que había sido creada por inteligencia artificial (AI) chatbot ChatGPT.
Durante un caso en el que se demandó a una aerolínea por una supuesta lesión personal, los abogados del demandante presentaron un escrito que contenía varios casos para que sirvieran de precedente legal. Lamentablemente, como se admitió posteriormente en una declaración jurada, los siguientes casos fueron "determinados como inexistentes" por el tribunal:
Varghese c. China Southern Airlines Co Ltd, 925 F.3d 1339 (11th Cir. 2019) Shaboon c. Egyptair 2013 IL App (1.er) 111279-U (Il App. Ct. 2013)
Petersen c. Iran Air 905 F. Suplemento 2d 121 (D.D.C. 2012)
Martinez v. Delta Airlines, Inc, 2019 WL 4639462 (Tex. App. 25 de septiembre de 2019)
Sucesión de Durden v. KLM Royal Dutch Airlines, 2017 WL 2418825 (Ga. Ct. App. 5 de junio de 2017)
Miller contra United Airlines, Inc, 174 F.3d 366 (2d Cir. 1999)
La "investigación" fue compilada por el abogado Steven A. Schwartz, un abogado con más de 30 años de experiencia según [BBC] (https://www.bbc.co.uk/news/world-us-canada-65735769) . Schwartz dijo en la declaración jurada que nunca antes había usado ChatGPT para investigaciones legales y que "no estaba al tanto de la posibilidad de que su contenido pudiera ser falso".
Las capturas de pantalla en la declaración jurada muestran al abogado preguntando al chatbot "es varghese un caso real", a lo que el chatbot respondió "sí". Cuando se le preguntó por las fuentes, le dijo al abogado que el caso se podía encontrar "en bases de datos de investigación legal como Westlaw y LexisNexis". Cuando se le preguntó "¿son falsos los otros casos que proporcionó?", respondió "No", y agregó que se pueden encontrar en las mismas bases de datos.
Por muy divertidos que puedan ser los chatbots, o por muy avanzados que parezcan, siguen siendo propensos a las "alucinaciones", respuestas que suenan perfectamente coherentes y que de ninguna manera se relacionan con el mundo real.
Sin una verificación exhaustiva de los hechos, no es realmente una herramienta que deba usar cuando intente investigar un caso legal que se basa en un precedente del mundo real en lugar de las alucinaciones de un [autocompletado picante] (https://twitter.com/solomania/status /1625458520811339777?lang=es).
El abogado escribió que "lamenta mucho haber utilizado inteligencia artificial generativa para complementar la investigación legal realizada aquí" y promete "nunca hacerlo en el futuro sin una verificación absoluta de su autenticidad".
Tanto Schwartz como el abogado Peter LoDuca, que no sabía que se había utilizado ChatGPT mientras investigaba el caso, se enfrentan a una audiencia el 8 de junio sobre el incidente.