Incidentes Asociados

Un juez dijo que el tribunal se enfrentó a una "circunstancia sin precedentes" después de que se descubrió que una presentación hacía referencia a ejemplos de casos legales que no existían.
El abogado que usó la herramienta le dijo al tribunal que "no sabía que su contenido podría ser falso".
ChatGPT crea texto original a pedido, pero viene con advertencias de que puede "producir información inexacta".
El caso original involucró a un hombre que demandó a una aerolínea por una supuesta lesión personal. Su equipo legal presentó un escrito que citaba varios casos judiciales anteriores en un intento de probar, utilizando precedentes, por qué el caso debería seguir adelante.
Pero los abogados de la aerolínea escribieron más tarde al juez para decirle que no podían encontrar varios de los casos a los que se hacía referencia en el escrito.
"Seis de los casos presentados parecen ser decisiones judiciales falsas con citas falsas y citaciones internas falsas", escribió el juez Castel en una orden exigiendo que el equipo legal del hombre se explique.
En el transcurso de varias presentaciones, se supo que la investigación no había sido preparada por Peter LoDuca, el abogado del demandante, sino por un colega suyo en la misma firma de abogados. Steven A Schwartz, que ha sido abogado durante más de 30 años, usó ChatGPT para buscar casos anteriores similares.
En su declaración escrita, el Sr. Schwartz aclaró que el Sr. LoDuca no había sido parte de la investigación y no sabía cómo se había llevado a cabo.
Schwartz agregó que "lamenta mucho" haber confiado en el chatbot, que dijo que nunca antes había usado para investigaciones legales y que "no sabía que su contenido podría ser falso".
Ha prometido no utilizar nunca la IA para "complementar" su investigación legal en el futuro "sin una verificación absoluta de su autenticidad".
Las capturas de pantalla adjuntas a la presentación parecen mostrar una conversación entre el Sr. Schwarz y ChatGPT.
"¿Es varghese un caso real?", se lee en un mensaje, haciendo referencia a Varghese v. China Southern Airlines Co Ltd, uno de los casos que ningún otro abogado pudo encontrar.
ChatGPT responde que sí, lo es, lo que hace que "S" pregunte: "¿Cuál es su fuente".
Después de una "doble verificación", ChatGPT responde nuevamente que el caso es real y se puede encontrar en bases de datos de referencia legal como LexisNexis y Westlaw.
Dice que los otros casos que le ha proporcionado al Sr. Schwartz también son reales.
Se ha ordenado a ambos abogados, que trabajan para la firma Levidow, Levidow & Oberman, que expliquen por qué no deben ser sancionados en una audiencia el 8 de junio.
Millones de personas han usado ChatGPT desde su lanzamiento en noviembre de 2022.
Puede responder preguntas en un lenguaje natural, similar al humano y también puede imitar otros estilos de escritura. Utiliza Internet tal como estaba en 2021 como su base de datos.
Ha habido preocupaciones sobre los riesgos potenciales de la inteligencia artificial (IA), incluida la posible propagación de información errónea y sesgo.