Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3054

Incidentes Asociados

Incidente 54158 Reportes
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court

Loading...
Abogado enfrenta sanciones por usar citas 'falsas' de ChatGPT
lsj.com.au · 2023

Steven Schwartz, abogado del bufete de abogados estadounidense Levidow & Oberman, se enfrentará a una audiencia de sanciones el 8 de junio de 2023 después de presentar un informe lleno de casos ficticios y citaciones judiciales fabricadas.

Schwartz estaba representando al pasajero de la aerolínea Roberto Mata en una demanda por negligencia contra las aerolíneas Avianca y usó ChatGPT en su investigación legal.

El escrito citaba casos que se decidieron entre 1999 y 2019 para respaldar el argumento de Schwartz de que el caso debería ser escuchado a pesar de que estaba más allá del plazo de prescripción. Sin embargo, ni el juez ni los abogados de la aerolínea pudieron encontrar las decisiones o citas resumidas.

El juez Kevin Castel, del Distrito Sur de Nueva York, afirmó que al menos seis de los casos presentados “parecen ser decisiones judiciales falsas con citas falsas y citas internas falsas”.

“A la corte se le presenta una circunstancia sin precedentes”, escribió Castel.

El juzgado se encuentra ante una circunstancia inédita.

Juez Kevin Castel, Nueva York

El informe de Schwartz incluía casos ficticios inventados por ChatGPT, incluidos Varghese contra China South Airlines, Shaboon contra EgyptAir, Martinez contra Delta Airlines, Miller contra United Airlines, Petersen contra Iran Air y Estate of Durden contra KLM Royal Dutch Airlines.

En una declaración jurada, Schwartz admitió que "no estaba al tanto de la posibilidad de que el contenido de [ChatGPT] pudiera ser falso". Asumió toda la responsabilidad por no verificar las fuentes y lamentó mucho “haber utilizado inteligencia artificial generativa para complementar la investigación legal realizada”.

Schwartz prometió "nunca volver a hacerlo [de nuevo] en el futuro sin una verificación absoluta de su [ChatGPT] autenticidad".

Después de que se le ordenara que mostrara motivos por los que no debería ser sancionado, Schwartz incluyó capturas de pantalla de sus intentos de confirmar la autenticidad de los casos con ChatGPT.

"¿Es Varghese un caso real?" Schwartz le preguntó a ChatGPT.

“Sí, es un caso real”, respondió el chatbot.

Schwartz le pidió a ChatGPT que confirmara su fuente, a lo que respondió: “Luego de verificar dos veces, encontré que el caso Varghese v. China Southern Airlines Co. Ltd., 925 F.3d 1339 (11th Cir. 2019), de hecho existe y puede se pueden encontrar en bases de datos de investigación legal como Westlaw y LexisNexis”.

“Me disculpo por cualquier inconveniente o confusión que mis respuestas anteriores puedan haber causado”, escribió ChatGPT.

Schwartz también le preguntó al chatbot si alguno de los otros casos proporcionados era falso y ChatGPT respondió: "No, los otros casos que proporcioné son reales y se pueden encontrar en bases de datos legales acreditadas".

El profesor de ética legal Stephen Gillers, de la Facultad de Derecho de la Universidad de Nueva York, dijo al New York Times que el caso ilustra lo que los abogados no deben hacer.

“No se puede simplemente tomar la salida y cortarla y pegarla en sus documentos judiciales”, dijo Gillers.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd