Incidentes Asociados

Al igual que un estudiante que entregó un trabajo final escrito por ChatGPT solo para recibirlo con una F roja encima, un abogado de Nueva York ahora debe enfrentar la música por dejar que AI haga el trabajo pesado después de [presentar un informe] (https:/ /www.cnn.com/2023/05/27/business/chat-gpt-avianca-mata-lawyers/index.html) que contiene múltiples referencias a casos inexistentes.
Steven Schwartz de Levidow, Levidow & Oberman, que ha ejercido durante más de 30 años, representa a un cliente que demandó a la aerolínea colombiana Avianca por lesiones que afirma haber sufrido cuando un carrito de servicio chocó contra él en pleno vuelo. Es un caso bastante corriente, excepto que Schwartz presentó un escrito ante el tribunal que incluía referencias a lo que el juez federal que conoció de la demanda denominó seis "decisiones judiciales falsas con citas falsas y citaciones internas falsas" para respaldar su posición. .
Resulta que Schwartz confió en ChatGPT para su investigación legal, y simplemente inventó esos casos, e insistió en que eran reales y estaban disponibles en las principales bases de datos legales cuando le pidió una fuente al bot.
En pocas palabras: la abogacía es una de varias profesiones que parece estar a punto de ser transformada por ChatGPT, que requiere muchas menos horas facturables para preparar documentos, pero el chatbot aún no está preparado para tener su día en la corte ---al menos no sin mucha supervisión humana.