Incidentes Asociados
¿La última víctima de un error de IA? El ex reparador de Donald Trump, Michael Cohen, y su abogado.
Cohen admitió en una declaración jurada en un caso en un tribunal federal de Manhattan que utilizó Google Bard, un chatbot generativo de IA similar a ChatGPT, para encontrar casos legales que respalden sus argumentos de por qué debería ser liberado antes de su liberación supervisada.
Pero Cohen no se dio cuenta de un problema clave de la IA: a veces, simplemente inventa cosas.
Cohen escribió que no entendió a Google Bard como un motor de búsqueda, no como un servicio de inteligencia artificial generativa como ChatGPT, y que confiaba en su abogado para verificar los casos.
"Entendí que era un motor de búsqueda súper potente y lo había usado repetidamente en otros contextos para encontrar (con éxito) información precisa en línea", escribió Cohen. "No sabía que Google Bard podía generar casos inexistentes."
Cohen comunicó los alucinantes resultados de Bard a su abogado en ese momento, David Schwartz, quien incluyó tres de ellos en su presentación del 29 de noviembre sin verificar que los casos fueran realmente legítimos, según los documentos judiciales.
La presentación legal del viernes fue la primera [informada por Matthew Russell Lee de Inner City Press] (https://twitter.com/innercitypress/status/1740764890720096375).
Cohen, en los documentos judiciales, desvía la culpa a su abogado por no verificar lo que envió.
"No se me ocurrió entonces, y me sigue sorprendiendo ahora, que el señor Schwartz dejaría los casos en su presentación sin siquiera confirmar que existían", escribió Cohen en el expediente.
Cohen se declaró culpable en 2018 de violaciones al financiamiento de campañas y cumplió condena en prisión antes de ser puesto en libertad supervisada.
Los documentos judiciales argumentaban que cumplió con todos los términos de su liberación y que su supervisión debería terminar ahora.
El juez de distrito estadounidense Jesse Furman, que supervisa el caso, pidió a Schwartz "que explicara por qué no debería ser sancionado por citar casos que parecen no existir", lo que llevó a Cohen a explicar su versión de la historia.
Schwartz, en su propio expediente judicial, dijo que incluyó los casos de alucinaciones como citaciones porque entendió erróneamente que provenían de otra de las abogadas de Cohen, Danya Perry, y no del propio Cohen. Perry todavía está trabajando para intentar poner fin a la liberación supervisada de Cohen y dice que no debería sufrir por el presunto paso en falso de su abogado.
El incidente podría tener consecuencias para uno de los casos penales contra el expresidente Donald Trump.
Se espera que Cohen sea un testigo estrella en el caso del fiscal de distrito de Manhattan contra Trump, alegando que falsificó documentos comerciales para encubrir los pagos de dinero a Stormy Daniels antes de las elecciones de 2016.
Trump y sus abogados han argumentado durante mucho tiempo que no se puede confiar en Cohen, dados sus antecedentes penales, que también le llevaron a perder su propia licencia legal. Con el problema de la IA, es posible que tengan otro ejemplo más que presentar ante un jurado para intentar desacreditarlo.