Incidentes Asociados
/cloudfront-us-east-2.images.arcpublishing.com/reuters/ZGSQRA7Y2JNLBOEYBWCKD3FTZM.jpg)
Un abogado de Nueva York enfrenta posibles sanciones por un informe plagado de errores que redactó con la ayuda de ChatGPT.
Es un escenario sobre el que los expertos en ética legal han advertido desde que ChatGPT irrumpió en escena en noviembre, marcando una nueva era para la IA que puede producir respuestas similares a las humanas basadas en grandes cantidades de datos.
Steven Schwartz de Levidow, Levidow & Oberman se enfrenta a una audiencia de sanciones el 8 de junio ante el juez federal de distrito P. Kevin Castel después de que admitió haber usado ChatGPT para un informe en el caso de lesiones personales de su cliente contra Avianca Airlines. El escrito citaba seis decisiones judiciales inexistentes.
Schwartz dijo en un [archivo judicial](https://storage.courtlistener.com/recap/gov.uscourts.nysd.575368/gov.uscourts.nysd.575368.32.1_1.pdf?utm_source=Sailthru&utm_medium=Newsletter&utm_campaign=Daily-Docket&utm_term =053023) que "lamenta mucho" su confianza en la tecnología y que "no estaba al tanto de la posibilidad de que su contenido pudiera ser falso".
Los abogados que representan a Avianca alertaron al tribunal sobre los casos inexistentes citados por Schwartz, quien no respondió a una solicitud de comentarios el martes.
Las Reglas modelo de conducta profesional de la American Bar Association no abordan explícitamente la inteligencia artificial. Pero se aplican varias reglas de ética existentes, dicen los expertos.
“En última instancia, usted es responsable de las representaciones que hace”, dijo Daniel Martin Katz, profesor de la Facultad de Derecho de Chicago-Kent que enseña responsabilidad profesional y estudia inteligencia artificial en el derecho. "Es su tarjeta de barra".
DEBER DE COMPETENCIA
Esta regla requiere que los abogados brinden una representación competente y estén al día con la tecnología actual. Deben asegurarse de que la tecnología que utilizan brinde información precisa, una preocupación importante dado que se han encontrado herramientas como ChatGPT para inventar cosas. Y los abogados no deben confiar demasiado en las herramientas para que no introduzcan errores.
“Confiar ciegamente en la IA generativa para obtener el texto que utiliza para brindar servicios a su cliente no va a aprobar”, dijo el decano de derecho de la Universidad de Suffolk, Andrew Perlman, líder en tecnología legal y ética.
Perlman prevé que las reglas del deber de competencia eventualmente requieran cierto nivel de competencia en tecnología de inteligencia artificial. La IA podría revolucionar la práctica legal de manera tan significativa que algún día no usarla podría ser como no usar las computadoras para la investigación, dijo.
DEBER DE CONFIDENCIALIDAD
Esta regla requiere que los abogados “hagan esfuerzos razonables para evitar la divulgación inadvertida o no autorizada, o el acceso no autorizado a, información relacionada con la representación de un cliente”. Los abogados que utilizan programas como ChatGPT o Bing Chat corren el riesgo de proporcionar a las empresas de inteligencia artificial los datos de sus clientes para entrenar y mejorar sus modelos, lo que podría violar las normas de confidencialidad.
Esa es una de las razones por las que algunos bufetes de abogados les han dicho explícitamente a los abogados que no usen ChatGPT y programas similares en asuntos de clientes, dijo Josias Dewey, socio de Holland & Knight, quien ha estado trabajando en el desarrollo de programas internos de inteligencia artificial en su bufete.
Algunos [programas de inteligencia artificial específicos de la ley] (https://www.reuters.com/legal/legal-ai-race-draws-more-investors-law-firms-line-up-2023-04-26/), incluidos CoCounsel y Harvey de CaseText, abordan el problema de la confidencialidad manteniendo sus datos protegidos de los proveedores externos de IA.
RESPONSABILIDADES CON RESPECTO A LA ASISTENCIA NO ABOGADA
Bajo esta regla, los abogados deben supervisar a los abogados y no abogados que los asisten para asegurar que su conducta cumpla con las reglas de conducta profesional. La ABA en 2012 aclaró que la regla también se aplica a la asistencia no humana.
Eso significa que los abogados deben supervisar el trabajo de los programas de IA y comprender la tecnología lo suficientemente bien como para asegurarse de que cumpla con los estándares éticos que los abogados deben respetar.
“Debe hacer esfuerzos razonables para garantizar que la tecnología que está utilizando sea consistente con su propia responsabilidad ética con sus clientes”, dijo Perlman.
Información de Karen Sloan