Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3181

Incidentes Asociados

Incidente 54158 Reportes
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court

Loading...
Abogados multados por presentar jurisprudencia falsa creada por ChatGPT
cbsnews.com · 2023

El jueves, un juez federal impuso multas de $ 5,000 a dos abogados y un bufete de abogados en un caso sin precedentes en el que se culpó a ChatGPT por su [presentación de investigación legal ficticia] (https://www.cbsnews.com/news/lawyer-chatgpt- court-filing-avianca/) en un reclamo por lesiones de aviación.

El juez P. Kevin Castel dijo que actuaron de mala fe. Pero acreditó sus disculpas y las medidas correctivas tomadas al explicar por qué no fueron necesarias sanciones más severas para garantizar que ellos u otros no vuelvan a permitir que las herramientas de inteligencia artificial los impulsen a producir un historial legal falso en sus argumentos.

"Los avances tecnológicos son comunes y no hay nada intrínsecamente inapropiado en el uso de una herramienta confiable de inteligencia artificial para obtener asistencia", escribió Castel. "Pero [las reglas existentes] (https://www.cbsnews.com/news/texas-judge-bans-chatgpt-court-filing/) imponen un papel de vigilancia a los abogados para garantizar la precisión de sus presentaciones".

A principios de este mes, un juez de Texas ordenó a los abogados que atestiguaran que no usarían ChatGPT u otra tecnología de inteligencia artificial generativa para escribir informes legales porque la herramienta de IA puede inventar hechos.

El juez dijo que los abogados y su firma, Levidow, Levidow & Oberman, P.C., "abandonaron sus responsabilidades cuando presentaron opiniones judiciales inexistentes con citas falsas y citas creadas por la herramienta de inteligencia artificial ChatGPT, y luego continuaron defendiendo las opiniones falsas". luego de que órdenes judiciales pusieran en duda su existencia”.

En un comunicado, el bufete de abogados dijo que cumpliría con la orden de Castel, pero agregó: "Respetuosamente no estamos de acuerdo con el hallazgo de que alguien en nuestro bufete actuó de mala fe. Ya nos disculpamos ante el Tribunal y nuestro cliente. Seguimos creyendo que frente a lo que incluso el Tribunal reconoció que era una situación sin precedentes, cometimos un error de buena fe al no creer que una pieza de tecnología podría estar inventando casos de la nada".

La firma dijo que estaba considerando apelar.

Casos falsos

Castel dijo que la mala fe se debió a que los abogados no respondieron adecuadamente al juez y sus adversarios legales cuando se notó que seis casos legales enumerados para respaldar sus argumentos escritos del 1 de marzo no existían.

El juez citó "explicaciones cambiantes y contradictorias" ofrecidas por el abogado Steven A. Schwartz. Dijo que el abogado Peter LoDuca mintió acerca de estar de vacaciones y fue deshonesto al confirmar la veracidad de las declaraciones enviadas a Castel.

En una audiencia a principios de este mes, Schwartz dijo que usó el chatbot impulsado por inteligencia artificial para ayudarlo a encontrar precedentes legales que respalden el caso de un cliente contra la aerolínea colombiana Avianca por una lesión sufrida en un vuelo de 2019.

Microsoft ha invertido unos mil millones de dólares en OpenAI, la empresa detrás de ChatGPT.

El chatbot, que genera respuestas similares a ensayos a las indicaciones de los usuarios, sugirió varios casos relacionados con accidentes de aviación que Schwartz no había podido encontrar a través de los métodos habituales utilizados en su bufete de abogados. Varios de esos casos no eran reales, jueces mal identificados o aerolíneas involucradas que no existían.

Las decisiones inventadas incluyeron casos titulados Martinez v. Delta Air Lines, Zicherman v. Korean Air Lines y Varghese v. China Southern Airlines.

El juez dijo que una de las decisiones falsas generadas por el chatbot "tiene algunos rasgos que son superficialmente consistentes con las decisiones judiciales reales", pero dijo que otras partes contenían "galimatías" y eran "sin sentido".

En una opinión escrita separada, el juez desestimó el reclamo de aviación subyacente y dijo que el estatuto de limitaciones había expirado.

Los abogados de Schwartz y LoDuca no respondieron de inmediato a una solicitud de comentarios.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd