Incidentes Asociados

Si tiene alguna duda sobre el poder y los peligros de la inteligencia artificial, tengo un caso judicial que le dará escalofríos.
Se trata de la conocida firma de abogados Morgan & Morgan, que presentó un escrito legal que citaba nueve casos como precedentes que supuestamente ayudaron a su cliente.
El problema: ocho de los casos eran completamente ficticios. Simplemente no existen.
Resulta que un miembro del equipo legal de Morgan & Morgan, con sede en Orlando, se basó en la inteligencia artificial para ayudar a escribir su presentación legal. Y cuando el chatbot fue a buscar jurisprudencia que pudiera ayudar, aparentemente se los inventó. La industria tecnológica llama a estas mentiras detalladas generadas por IA "alucinaciones".
Hablemos de inteligencia verdaderamente "artificial".
El chatbot no solo inventó demandantes y demandados, como el estado de Wyoming contra el Departamento de Energía de EE. UU., sino que fabricó fechas e incluso números de casos. Eso es un juego de palabras increíblemente específico.
Le pregunté al fundador de la firma, John Morgan, cómo sucedió algo así.
Su respuesta: “Uno de nuestros abogados se basó únicamente en la IA y cometió un error”.
Excepto que no dijo “cometió un error”.
Creo que es seguro decir que John se le ocurrió esa declaración sin ninguna ayuda de la IA.
La firma dijo básicamente lo mismo en los documentos donde básicamente ofreció un mea culpa a viva voz y se arrojó a la misericordia del tribunal.
“Esta presentación profundamente lamentable sirve como una dura lección para mí y nuestra firma mientras entramos en un mundo en el que la inteligencia artificial se entrelaza cada vez más con la práctica cotidiana”, escribió el abogado principal del caso, el hijo de John, Mike, en una declaración. “Si bien la inteligencia artificial es una herramienta poderosa, es una herramienta que debe usarse con cuidado. No hay atajos en la ley. Es con la más profunda humildad que me disculpo ante el Tribunal y el abogado contrario en nombre mío y de nuestra firma”.
El drama legal, que se está desarrollando en una sala de audiencias de Wyoming, aún no ha recibido mucha atención en los medios de comunicación tradicionales. Pero en los círculos legales y tecnológicos, la situación se está volviendo loca.
“Los abogados se enfrentan a la ira del juez después de que una IA citara casos inventados en una ardiente demanda por patinetas voladoras”, vociferó el sitio de noticias tecnológicas, The Register.
“El fracaso de ChatGPT de una importante firma de abogados. ¿Por qué no es tan difícil citar casos falsos?”, preguntó el analista legal David Lat en el subgrupo Original Jurisdiction.
Es una buena pregunta. Y es una advertencia para aquellos que se apresuran a tomar atajos y confiar en un cerebro que no es el suyo.
El caso involucra a un cliente de Morgan que está demandando a un fabricante de patinetas voladoras y a la cadena Walmart que vendió una patineta voladora que supuestamente estalló en llamas. Cuando los abogados de Walmart intentaron examinar la gran cantidad de precedentes legales citados por el equipo de Morgan, descubrieron que la mayoría de ellos no existían.
Creo que el término legal para eso es “ex post pamplinas”.
No es sorprendente que al juez no le hiciera gracia y le pidiera al equipo de Morgan que se explicara.
Fue entonces cuando un abogado de Morgan del sur de Florida, Rudwin Ayala, confesó y asumió la responsabilidad, diciendo que su confianza en los casos generados por IA “era errónea” porque “no verificó” la información.
“Con un corazón arrepentido, me disculpo sinceramente con este Tribunal, con mi firma y con los colegas que representan a los Demandados por este error y cualquier vergüenza que pueda haber causado”, escribió Ayala en su presentación del 13 de febrero. “La última semana ha sido muy humillante para mí profesionalmente y personalmente, una que puedo garantizar que nunca se repetirá”.
El juez pareció apreciar la franqueza y el arrepentimiento. Si bien el juez de distrito de EE. UU. Kelly Rankin dictaminó el lunes que Ayala ya no podía trabajar en el caso, solo multó a Morgan y al otro abogado supervisor involucrado con $ 1,000, lo que le dio crédito a la firma por confesar, disculparse y ofrecerse a pagar los costos del abogado contrario. El juez señaló que los abogados que habían sido descubiertos citando otros casos falsos generados por IA no hicieron lo mismo.
Sí, así es: otros casos. Lamentablemente, esto no es la primera vez. En un caso de 2023, un abogado que representaba a un hombre que estaba demandando a la aerolínea Avianca también presentó un escrito legal que citaba un caso ficticio inventado por ChatGPT. Cuando el servicio de noticias Reuters encuestó a los abogados, descubrió que casi dos tercios dijeron que habían recurrido a la IA en busca de ayuda.
Según mi experiencia personal, muchas de las personas que confían en la IA lo hacen con orgullo y a menudo sugieren que quienes no lo hacen son idiotas.
Tal vez. Por otra parte, aquellos de nosotros que no dependemos sin pensar de la IA para obtener datos (o de una publicación de Facebook o de las opiniones de algún pariente al azar, para el caso) nunca nos encontraremos tratando de explicar información falsa que alguien más proporcionó con autoridad.
Una de las cosas más aterradoras de esta historia es que cuando yo y otros le pedimos a un chatbot más detalles sobre los casos falsos, el chatbot también “alucinó” esos detalles.
Sí, si le preguntas a la IA sobre una mentira, puede generar mentiras más intrincadas, como los nombres de los jueces reales que supuestamente presidieron estos casos que en realidad nunca ocurrieron.
Todos sabemos que uno de los mayores problemas con las mentiras es que las personas que dicen una a menudo terminan inventando muchas más mentiras para justificar la primera. Bueno, aparentemente eso no es solo un problema para los humanos, sino también para la tecnología que se supone que nos superaría en inteligencia. Lo cual es una buena razón para verificar todo lo que escuchas.