Incidentes Asociados
Los abogados que demandaron a la aerolínea colombiana Avianca presentaron un escrito lleno de casos previos que simplemente inventaron ChatGPT, [The New York Times informó hoy](https://www.nytimes.com/2023/05/27/nyregion/avianca- airline-lawsuit-chatgpt.html?smid=tw-nytimes&smtyp=cur). Después de que el abogado contrario señalara los casos inexistentes, el juez federal de distrito Kevin Castel confirmó: "Seis de los casos presentados parecen ser decisiones judiciales falsas con citas falsas y citaciones internas falsas", y programó una audiencia mientras considera las sanciones para los abogados del demandante. .
Abogado Steven A. Schwartz admitido en una declaración jurada que había usado el chatbot de OpenAI para su investigación. Para verificar los casos, hizo lo único razonable: le preguntó al chatbot si estaba mintiendo.
Cuando preguntó por una fuente, ChatGPT se disculpó por la confusión anterior e insistió en que el caso era real, diciendo que se podía encontrar en Westlaw y LexisNexis. Satisfecho, preguntó si los otros casos eran falsos y ChatGPT sostuvo que todos eran reales.
El abogado contrario informó al tribunal sobre el tema con dolorosos detalles, ya que relató cómo la presentación de los abogados de Levidow, Levidow & Oberman fue un resumen lleno de mentiras. En un ejemplo, un caso inexistente llamado Varghese v. China Southern Airlines Co., Ltd., el chatbot parecía hacer referencia a otro caso real, [Zicherman v. Korean Air Lines Co., Ltd.] (https://supreme.justia .com/cases/federal/us/516/217/), pero se equivocó en la fecha (y otros detalles), diciendo que se decidió 12 años después de su decisión original de 1996.
Schwartz dice que "no estaba al tanto de la posibilidad de que su contenido pudiera ser falso". Ahora “lamenta mucho haber utilizado inteligencia artificial generativa para complementar la investigación legal realizada aquí y nunca lo hará en el futuro sin una verificación absoluta de su autenticidad”.
Schwartz no está autorizado para ejercer en el Distrito Sur de Nueva York, pero originalmente presentó la demanda antes de que se trasladara a ese tribunal y dice que continuó trabajando en ella. Otro abogado de la misma firma, Peter LoDuca, se convirtió en el abogado del caso y tendrá que comparecer ante el juez para explicar lo que sucedió.
Esto destaca una vez más lo absurdo de usar chatbots para la investigación sin verificar dos (o tres veces) sus fuentes en otro lugar. El debut de Bing de Microsoft ahora está infamemente asociado con [mentiras descaradas, manipulación emocional y manipulación emocional] (https://www.theverge.com/2023/2/15/23599072/microsoft-ai-bing-personality-conversations-spy -empleados-webcams). Bard, el chatbot de inteligencia artificial de Google, inventó un hecho sobre el telescopio espacial James Webb [en su primera demostración](https://www.theverge.com/2023/2/8/23590864/google-ai-chatbot-bard-mistake -error-exoplaneta-demo). [Bing incluso mintió sobre el cierre de Bard] (https://www.theverge.com/2023/3/22/23651564/google-microsoft-bard-bing-chatbots-misinformation) en un ejemplo hilarantemente malicioso de marzo pasado .
Ser bueno imitando los patrones del lenguaje escrito para mantener un aire de confianza inquebrantable no vale mucho si ni siquiera puedes [calcular cuántas veces aparece la letra 'e' en el ketchup] (https://www. theverge.com/2023/5/16/23725747/bard-chatbot-google-neither-artificial-nor-intelligent).
De todos modos, aquí está el juez señalando todas las formas en que el informe del abogado fue un festival de mentiras absoluto: