Incidentes Asociados

A medida que los chatbots basados en mensajes, como ChatGPT, se convierten en herramientas convencionales que se utilizan para ahorrar tiempo en las tareas en el lugar de trabajo de los EE. [reemplazar trabajos humanos] (https://www.entrepreneur.com/business-news/ibm-says-7800-of-its-roles-could-be-replaced-by-ai/450852).
Pero mientras continúa la controversia en torno a qué trabajos se eliminarán, una cosa es segura: en algunas industrias, el chatbot ahorra menos tiempo y es más una responsabilidad.
Steven A. Schwartz, un abogado con sede en Nueva York con más de 30 años de experiencia, recibió la orden del Distrito Sur de Nueva York de explicar lo que el juez calificó como un "caso sin precedentes", informó el New York Times por primera vez (https ://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html?smid=tw-nytimes&smtyp=cur), o enfrentar posibles sanciones por sus acciones.
Según la orden judicial, seis casos que Schwartz citó en un escrito legal fueron "falso."
“Seis de los casos presentados parecen ser decisiones judiciales falsas con citas falsas y citas internas falsas”, escribió el juez P. Kevin Castel en la orden judicial.
En una declaración jurada presentada la semana pasada en respuesta a la orden, Schwartz admitió haber usando ChatGPT para realizar investigaciones legales a pesar de que nunca lo había usado antes de esta instancia y que "no estaba al tanto de la posibilidad de que su contenido pudiera ser falso".
Schwartz agregó que "lamenta mucho" el uso de inteligencia artificial para "complementar" su investigación legal.
Se fijó una audiencia para el 8 de junio para que Schwartz se explique mejor.