Incidentes Asociados

Un abogado dice que "lamenta mucho" haber usado ChatGPT en su trabajo para un cliente que está [demandando] (https://complex.com/tag/lawsuits) una aerolínea, ya que desde entonces se ha determinado que el modelo de lenguaje de inteligencia artificial ha citado múltiples casos inexistentes en su supuesta investigación.
Como informado por primera vez por el New York Times sobre el fin de semana, la demanda en cuestión proviene de un hombre que alega que resultó herido cuando un carrito de servicio golpeó su rodilla durante un vuelo a Nueva York. El hombre, identificado como Roberto Mata, demandó a Avianca por las supuestas lesiones.
Pero cuando la compañía aérea presionó para que se desestimara el caso, el equipo legal del hombre, incluido un abogado llamado Steven A. Schwartz, señaló una serie de fallos judiciales anteriores que, según argumentaron, respaldaban su postura. El verdadero problema aquí, como resultado, fue que ninguno de estos casos era real.
Schwartz, quien trabaja como parte del bufete de abogados Levidow, Levidow & Oberman, dijo en una declaración jurada posterior, disponible para leer [aquí](https://www.documentcloud.org/documents/23826751-mata-v-avianca -airlines-affidavit-in-opposition-to-motion?responsive=1&title=1) a través de un informe separado [de](https://www.theverge.com/2023/5/27/23739913/chatgpt-ai-lawsuit -avianca-airlines-chatbot-research) The Verge---que había "consultado" ChatGPT "para complementar el proceso de investigación legal".
Este uso admitido de ChatGPT resultó en la citación de al menos seis posibles casos diferentes, todos los cuales luego se descubrió que eran "inexistentes". Según Schwartz, no había usado ChatGPT antes de este incidente, alegando que esto lo hizo "desconocer la posibilidad de que su contenido pudiera ser falso". Schwartz, en el mismo documento judicial, también dijo no tenía "ninguna intención de engañar" ni al tribunal ni a los acusados en el caso.
En el futuro, Schwartz, quien ahora tiene una audiencia de sanciones en los libros para el próximo mes, dijo que no usará ChatGPT en el futuro a menos que pueda asegurar la "verificación absoluta" de tales afirmaciones.
Por supuesto, esto está lejos de ser la primera historia en la que los peligros de confiar en dicha tecnología se han dejado en claro. Si bien ciertos directores ejecutivos han permanecido capitalistamente (y predeciblemente) optimistas en sumergirse hasta el final en AI, varios líderes dentro del campo han advertido contra hacerlo sin que primero se hayan instituido regulaciones.
Por ejemplo, Sam Altman, director ejecutivo de OpenAI, desarrolladores de ChatGPT, [advirtió](https://www.complex.com/life/a/tracewilliamcowen/ceo-company-behind-chatgpt-nervous-about-ai -riesgos) durante una audiencia reciente del Comité Judicial del Senado que esta tecnología "puede salir bastante mal". En la misma audiencia, Altman admitió que estaba "nervioso" por ciertos aspectos de esta etapa del desarrollo de la IA, incluidos sus "peores temores" de que quienes están detrás de la tecnología podrían "causar un daño significativo al mundo".