Incidentes Asociados
Michael Cohen, ex reparador y abogado del ex presidente Donald Trump, dijo en un nuevo expediente judicial que, sin saberlo, le presentó a su abogado un caso falso citaciones después de usar inteligencia artificial para crearlas como parte de un intento legal para poner fin a su libertad condicional por cargos de evasión fiscal y violación de financiamiento de campañas.
Según la presentación, que se abrió el viernes, Cohen dijo que usó Google Bard, un chatbot de IA, para generar citaciones de casos que su abogado podría utilizar para ayudar a presentar el caso y acortar su libertad supervisada. Se declaró culpable de los delitos en 2018 y había cumplido condena en prisión.
Cohen dijo que le dio esas citaciones a uno de sus abogados, David M. Schwartz, quien luego las usó en una moción presentada ante un juez federal de Estados Unidos en nombre de Cohen, según el documento.
La admisión de Cohen se produce después de que el juez de distrito estadounidense Jesse Furman del Distrito Sur de Nueva York dijera [en una orden del 12 de diciembre](https://storage.courtlistener.com/recap/gov.uscourts.nysd.499666/gov.uscourts. nysd.499666.96.0.pdf) que no pudo encontrar ninguno de los tres casos citados por Schwartz y pidió una "explicación exhaustiva" de cómo se incluyeron estos casos y "qué papel, si es que hubo alguno", pudo haber desempeñado Cohen en la moción antes de que fuera presentada.
En la presentación, Cohen escribió que no se había mantenido al día con "las tendencias emergentes (y los riesgos relacionados) en la tecnología legal y no se dio cuenta de que Google Bard era un servicio de texto generativo que, como ChatGPT, podía mostrar citas y descripciones que parecían reales pero en realidad no lo eran." Para él, dijo, Google Bard parecía ser un "motor de búsqueda sobrealimentado".
Cohen añadió que en ningún momento Schwartz o su asistente legal "plantearon ninguna preocupación sobre las citaciones" que había sugerido. "No se me ocurrió entonces, y me sigue sorprendiendo ahora, que el señor Schwartz dejaría los casos en su presentación sin siquiera confirmar que habían existido", escribió Cohen.
Schwartz no respondió de inmediato a una solicitud de comentarios.
El episodio se produce cuando se espera que Cohen desempeñe un papel destacado en un caso penal de Manhattan contra Trump. También es una indicación de cuán común se está volviendo la IA en los casos legales, a medida que una nueva generación de herramientas de lenguaje de IA se abre camino en la industria legal.
Según la presentación de Cohen, el error fue descubierto por E. Danya Perry, una exfiscal federal que ahora representa a Cohen en su esfuerzo por acortar su libertad condicional. Cohen dijo que Schwartz cometió un "error honesto" y Perry ha proporcionado citas de casos reales que justifican por qué se debe terminar la libertad condicional de Cohen.
Esta es al menos la segunda instancia este año en la que un juez federal de Manhattan confronta a abogados por el uso de citaciones falsas generadas por IA. En junio, dos abogados fueron multados con 5.000 dólares en un caso no relacionado en el que utilizaron ChatGPT para crear citaciones de casos falsas.