Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3036

Incidentes Asociados

Incidente 54158 Reportes
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court

Loading...
Abogado usa casos falsos de ChatGPT durante la audiencia, es abofeteado por el juez
winbuzzer.com · 2023

ChatGPT es un poderoso modelo de lenguaje que puede generar textos realistas sobre varios temas. También puede inventar textos ficticios, como cuentos, poemas e incluso casos legales. Esto es lo que hizo un abogado llamado Steven Schwartz cuando representaba a un cliente que había presentado una [demanda] por lesiones personales (https://winbuzzer.com/tag/lawsuit/) contra una compañía aérea.

Simon Willison informa que Schwartz utilizó ChatGPT para generar ejemplos de casos que respaldaban su argumento de que la quiebra de la aerolínea empresa no afectó el plazo de prescripción de dos años para interponer la demanda. Citó estos casos en sus documentos legales, sin verificar su autenticidad o existencia. Incluso incluyó capturas de pantalla de las respuestas de ChatGPT como evidencia.

Sin embargo, su engaño pronto quedó al descubierto cuando el juez le pidió que proporcionara copias de las opiniones de los casos que había citado. Schwartz recurrió a ChatGPT nuevamente y le pidió que generara detalles completos de esos casos. Luego los archivó como archivos adjuntos a sus documentos. También le pidió a ChatGPT que confirmara que los casos eran reales y ChatGPT dijo que lo eran. También incluyó capturas de pantalla de esta conversación.

Al juez no le hizo gracia esta flagrante fabricación y manipulación de ChatGPT. Ordenó a Schwartz que mostrara motivos por los que no debería ser sancionado por su mala conducta. También remitió el asunto al comité disciplinario del colegio de abogados ya la oficina del fiscal federal para un posible proceso penal.

El caso es Mata v. Avianca, Inc. (1:22-cv-01461), y aún está pendiente en el Tribunal Federal de Distrito para el Distrito Sur de Nueva York.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd