Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3019

Incidentes Asociados

Incidente 54158 Reportes
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court

Loading...
Un abogado usó ChatGPT para citar casos falsos. ¿Qué son las éticas?
reuters.com · 2023

Un abogado de Nueva York enfrenta posibles sanciones por un informe plagado de errores que redactó con la ayuda de ChatGPT.

Es un escenario sobre el que los expertos en ética legal han advertido desde que ChatGPT irrumpió en escena en noviembre, marcando una nueva era para la IA que puede producir respuestas similares a las humanas basadas en grandes cantidades de datos.

Steven Schwartz de Levidow, Levidow & Oberman se enfrenta a una audiencia de sanciones el 8 de junio ante el juez federal de distrito P. Kevin Castel después de que admitió haber usado ChatGPT para un informe en el caso de lesiones personales de su cliente contra Avianca Airlines. El escrito citaba seis decisiones judiciales inexistentes.

Schwartz dijo en un [archivo judicial](https://storage.courtlistener.com/recap/gov.uscourts.nysd.575368/gov.uscourts.nysd.575368.32.1_1.pdf?utm_source=Sailthru&utm_medium=Newsletter&utm_campaign=Daily-Docket&utm_term =053023) que "lamenta mucho" su confianza en la tecnología y que "no estaba al tanto de la posibilidad de que su contenido pudiera ser falso".

Los abogados que representan a Avianca alertaron al tribunal sobre los casos inexistentes citados por Schwartz, quien no respondió a una solicitud de comentarios el martes.

Las Reglas modelo de conducta profesional de la American Bar Association no abordan explícitamente la inteligencia artificial. Pero se aplican varias reglas de ética existentes, dicen los expertos.

“En última instancia, usted es responsable de las representaciones que hace”, dijo Daniel Martin Katz, profesor de la Facultad de Derecho de Chicago-Kent que enseña responsabilidad profesional y estudia inteligencia artificial en el derecho. "Es su tarjeta de barra".

DEBER DE COMPETENCIA

Esta regla requiere que los abogados brinden una representación competente y estén al día con la tecnología actual. Deben asegurarse de que la tecnología que utilizan brinde información precisa, una preocupación importante dado que se han encontrado herramientas como ChatGPT para inventar cosas. Y los abogados no deben confiar demasiado en las herramientas para que no introduzcan errores.

“Confiar ciegamente en la IA generativa para obtener el texto que utiliza para brindar servicios a su cliente no va a aprobar”, dijo el decano de derecho de la Universidad de Suffolk, Andrew Perlman, líder en tecnología legal y ética.

Perlman prevé que las reglas del deber de competencia eventualmente requieran cierto nivel de competencia en tecnología de inteligencia artificial. La IA podría revolucionar la práctica legal de manera tan significativa que algún día no usarla podría ser como no usar las computadoras para la investigación, dijo.

DEBER DE CONFIDENCIALIDAD

Esta regla requiere que los abogados “hagan esfuerzos razonables para evitar la divulgación inadvertida o no autorizada, o el acceso no autorizado a, información relacionada con la representación de un cliente”. Los abogados que utilizan programas como ChatGPT o Bing Chat corren el riesgo de proporcionar a las empresas de inteligencia artificial los datos de sus clientes para entrenar y mejorar sus modelos, lo que podría violar las normas de confidencialidad.

Esa es una de las razones por las que algunos bufetes de abogados les han dicho explícitamente a los abogados que no usen ChatGPT y programas similares en asuntos de clientes, dijo Josias Dewey, socio de Holland & Knight, quien ha estado trabajando en el desarrollo de programas internos de inteligencia artificial en su bufete.

Algunos [programas de inteligencia artificial específicos de la ley] (https://www.reuters.com/legal/legal-ai-race-draws-more-investors-law-firms-line-up-2023-04-26/), incluidos CoCounsel y Harvey de CaseText, abordan el problema de la confidencialidad manteniendo sus datos protegidos de los proveedores externos de IA.

RESPONSABILIDADES CON RESPECTO A LA ASISTENCIA NO ABOGADA

Bajo esta regla, los abogados deben supervisar a los abogados y no abogados que los asisten para asegurar que su conducta cumpla con las reglas de conducta profesional. La ABA en 2012 aclaró que la regla también se aplica a la asistencia no humana.

Eso significa que los abogados deben supervisar el trabajo de los programas de IA y comprender la tecnología lo suficientemente bien como para asegurarse de que cumpla con los estándares éticos que los abogados deben respetar.

“Debe hacer esfuerzos razonables para garantizar que la tecnología que está utilizando sea consistente con su propia responsabilidad ética con sus clientes”, dijo Perlman.

Información de Karen Sloan

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd