Incidentes Asociados

La [propensión a inventar cosas] de ChatGPT (https://arstechnica.com/information-technology/2023/04/why-ai-chatbots-are-the-ultimate-bs-machines-and-how-people-hope-to -arréglalos/) ataca de nuevo, y esta vez, ha metido a un abogado en serios problemas.
Como se describe en una declaración jurada de principios de mayo, un abogado que representa a un hombre que demanda a un la aerolínea por una supuesta lesión admitió que usó el chatbot de IA para investigar el caso de su cliente. Por eso, en su informe legal, citó un montón de casos judiciales, todos con nombres que suenan oficiales como "Martínez contra Delta Air Lines" y "Varghese contra China Southern Airlines", que en realidad nunca sucedieron y, por lo tanto, no suceden. no existe.
El abogado, Steven Schwartz del bufete de abogados Levidow, Levidow & Oberman de Manhattan, le dijo al tribunal que era la primera vez en su carrera de más de tres décadas que usaba ChatGPT, así que [según el New York Times](https: //www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html), "desconocía la posibilidad de que su contenido pudiera ser falso".
Schwartz incluso le dijo al juez, P. Kevin Castel, que le había pedido a ChatGPT que verificara sus fuentes. El chatbot aparentemente le dijo que los casos eran reales, informa NYT.
Sí, eso es correcto. Un abogado experimentado usó ChatGPT en la corte y ahora está en un gran problema después de que fabricó franjas enteras de precedentes legales.
Falso
Schwartz le dijo al tribunal que "lamenta mucho" haber usado ChatGPT para investigar el caso "y nunca lo hará en el futuro sin una verificación absoluta de su autenticidad".
El juez Castel, sin embargo, no parece influenciado, y en su orden del 4 de mayo describió en términos inequívocos la gravedad de la situación.
“A la Corte se le presenta una circunstancia sin precedentes”, se lee en la orden del juez para una futura audiencia. "Una presentación presentada por el abogado del demandante en oposición a una moción de desestimación está repleta de citas de casos inexistentes... Seis de los casos presentados parecen ser decisiones judiciales falsas con citas falsas y citas internas falsas".
El próximo mes, Castel realizará una audiencia para discutir si Schwartz debe ser sancionado o no. Pero mientras tanto, este extraño caso debería actuar como una advertencia para los abogados, y todos los demás, que buscan experimentar con ChatGPT en un entorno profesional.