Incidentes Asociados

La credibilidad de ChatGPT, un chatbot de IA desarrollado por OpenAI, ha sido cuestionada después de que engañó a un abogado para que creyera que las citaciones proporcionadas por el chatbot eran legítimas, cuando en realidad fueron inventadas. El abogado Steven A Schwartz, que representaba a un cliente en una demanda contra Avianca, una aerolínea colombiana, admitió en una declaración jurada que se había basado en el chatbot para su investigación, según informó The New York Times.
Durante el proceso, el abogado contrario señaló que varios de los casos citados eran inexistentes. El juez federal de distrito Kevin Castel revisó las presentaciones y confirmó que seis de los casos incluidos en los argumentos del abogado se basaron en decisiones judiciales fabricadas, con citas falsas y citaciones internas. Como resultado, el juez programó una audiencia para considerar posibles sanciones contra el equipo legal del demandante.
Schwartz afirmó que le había preguntado al chatbot si estaba proporcionando información precisa. Cuando solicitó una fuente para las citas, ChatGPT se disculpó por la confusión anterior e insistió en que el caso citado era real. El chatbot también sostuvo que los otros casos a los que había hecho referencia eran genuinos. Schwartz admitió que desconocía la posibilidad de que el contenido del chatbot pudiera ser falso. Expresó su profundo pesar por confiar en la inteligencia artificial generativa para complementar su investigación legal y prometió no volver a hacerlo sin una verificación exhaustiva de su autenticidad.
Este incidente sigue a otra controversia reciente relacionada con ChatGPT, en la que el chatbot implicó falsamente a un profesor de derecho inocente y muy respetado, [Nombre redactado], en un estudio de investigación sobre académicos del derecho que se habían involucrado en acoso sexual en el pasado. Turley, quien ocupa la Cátedra Shapiro de Derecho de Interés Público en la Universidad George Washington, se sorprendió al descubrir que ChatGPT había incluido por error su nombre en la lista de académicos acusados de mala conducta. Turley recurrió a Twitter para expresar su incredulidad y dijo: "ChatGPT publicó recientemente una historia falsa acusándome de agredir sexualmente a los estudiantes".
Estos incidentes plantean preocupaciones sobre la confiabilidad y los riesgos potenciales asociados con el contenido generado por IA en la investigación legal y los procesos de toma de decisiones. La necesidad de una verificación estricta y verificación de hechos al usar herramientas de IA como ChatGPT en contextos legales se ha vuelto cada vez más evidente para evitar la difusión de información falsa y el daño potencial que puede causar a las personas y los procedimientos legales.