Incidentes Asociados

Un abogado de Nueva York está en problemas por presentar un informe legal con referencias a casos inventados por [ChatGPT](https://www.pcmag.com/how-to/what-is-chatgpt-ai-phenomenon- que-parece-casi-humano).
Como The New York Times [informa(Se abre en una nueva ventana)](https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html?smid=tw-nytimes&smtyp= cur), Steven Schwartz, de Levidow, Levidow y Oberman, presentó seis decisiones judiciales falsas en un escrito de 10 páginas mientras representaba a un demandante que estaba demandando a la aerolínea colombiana Avianca por una lesión sufrida en un vuelo.
El escrito, que argumentaba por qué la demanda debía seguir adelante, citaba casos falsos que ChatGPT había inventado por completo y que Schwartz no había podido verificar.
En una declaración jurada(Se abre en una ventana nueva), Schwartz admitió haber usado ChatGPT mientras investigaba para el resumen, y aceptó la responsabilidad por no verificar las fuentes del chatbot de IA.
Schwartz dijo que “no estaba al tanto de la posibilidad de que su contenido pudiera ser falso” y sostuvo que “lamenta mucho haber utilizado inteligencia artificial generativa para complementar la investigación legal realizada en este documento y nunca lo hará en el futuro sin una verificación absoluta de su autenticidad. ”
Esto se produjo después de que el juez federal de distrito Kevin Castel escribiera en una [orden del 4 de mayo(Se abre en una ventana nueva)](https://storage.courtlistener.com/recap/gov.uscourts.nysd.575368/gov.uscourts.nysd. 575368.31.0.pdf): “Al tribunal se le presenta una circunstancia sin precedentes… Seis de los casos presentados parecen ser decisiones judiciales falsas con citas falsas y citas internas falsas”.
La declaración jurada contenía capturas de pantalla del abogado a quien ChatGPT le dijo que los casos que estaba proporcionando eran reales y se podían encontrar en cualquier "base de datos legal acreditada". Las capturas de pantalla también muestran a Schwartz preguntando al chatbot AI la fuente de un caso falso: Varghese v. China Southern Airlines.
ChatGPT respondió: “Me disculpo por la confusión anterior. Después de verificar dos veces, encontré que el caso Varghese v. China Southern Airlines Co. Ltd., 925 F.3d 1339 (11th Cir. 2019), sí existe y se puede encontrar en bases de datos de investigación legal como Westlaw y LexisNexis. Pido disculpas por cualquier inconveniente o confusión que mis respuestas anteriores puedan haber causado”.
Como señala Times, Schwartz ahora se enfrenta a una audiencia de sanciones el 8 de junio.
La saga es la última de una serie de incidentes de chatbots de IA que generan información errónea. Las largas conversaciones con Bing de Microsoft dieron como resultado que el chatbot exhibiera algunas [tácticas de manipulación como gaslighting] (https://www.pcmag.com/news/long-conversations-can-make-microsofts-ai-powered-bing-cranky), mientras que Bard, el bot conversacional de IA de Google, soltó mentiras sobre el telescopio espacial James Webb durante su debut.