Incidentes Asociados

Poco después de que las noticias sobre abogados que utilizaban ChatGPT para potenciar la investigación jurídica pero terminaron en un desastre se apoderaron de los medios, Google Bard está emergiendo como una segunda opción. En la última medida, Michael Cohen, el ex abogado de Donald Trump, reconoció que citó casos falsos generados por IA en un documento legal, según The New York Times.
La presentación decía que Cohen utilizó el modelo de inteligencia artificial Bard del gigante tecnológico con sede en California para la investigación y asumió que era un "motor de búsqueda supercargado" y no una herramienta de inteligencia artificial. El documento era una moción para pedirle al juez federal que redujera la duración de la libertad condicional de Cohen, señaló The Verge. Tras escanear el escrito, el juez de distrito estadounidense Jesse Furman observó que "ninguno de estos casos existe" y exigió una explicación a David Schwartz, abogado de Cohen.
Como respuesta, Cohen admitió por escrito que utilizó el rival ChatGPT de Google para investigaciones legales y compartió los hallazgos con su abogado, pero el propósito no era engañar al tribunal. Cohen agregó que no sabía que estos casos pudieran ser falsos y que su abogado los agregaría sin ninguna verificación de antecedentes.
"Como no soy abogado, no me he mantenido al día con las tendencias emergentes (y los riesgos relacionados) en la tecnología legal y no sabía que Google Bard era un servicio de texto generativo que, como Chat-GPT, podía mostrar citas y descripciones que parecían reales pero en realidad no lo eran", afirmó Cohen.
Añadió que utilizó Bard repetidamente (en el pasado) en otros contextos para encontrar información precisa. Esta no es la primera vez que aparecen en los medios casos de IA que citan casos inexistentes. Las principales empresas (incluidas OpenAI y Google) compiten en el espacio de la IA y los expertos han advertido sobre la precisión de la información compartida por los modelos a intervalos regulares.
El resultado de estos debe verificarse mediante revisión humana para asignarles la etiqueta legítima. Mientras tanto, un Locutor de radio presentó una demanda contra el modelo viral ChatGPT de OpenAI por formular cargos falsos de difamación. Además, en otro caso, la modelo de lenguaje acusó falsamente a un profesor de derecho de acoso sexual. Estos casos sirven como un claro recordatorio de las limitaciones de la tecnología en evolución.