Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3040

Incidentes Asociados

Incidente 54158 Reportes
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court

Loading...
ChatGPT inventa casos abogado utilizado como referencia en la presentación judicial para el cliente
wgauradio.com · 2023

Un abogado que usó ChatGPT para ayudar en la investigación de una demanda podría enfrentar sanciones después de que se descubriera que el chatbot de inteligencia artificial tomó decisiones judiciales relevantes para respaldar el caso de su cliente.

Steven A. Schwartz, quien usó información provista por ChatGPT para presentar una demanda por un hombre que demandó a una aerolínea, se disculpó con el juez y dijo en una declaración jurada que había usado el programa de inteligencia artificial para ayudar en su investigación legal: “una fuente que se ha revelado como poco confiable”, informó The New York Times.

Schwartz representa a Roberto Mata, quien afirma que resultó herido en un vuelo de Avianca Airlines.

El problema de Schwartz con ChatGPT comenzó cuando usó el chatbot para encontrar casos para reforzar el caso de Mata contra Avianca después de que dijo que un carrito de refrescos lo golpeó en la rodilla y lo lesionó.

Avianca le pidió al juez que desestimara el caso porque había pasado el tiempo en que Mata podía demandar después del supuesto incidente, y los abogados de Mata respondieron con un escrito de 10 páginas que apuntaba a casos similares y solicitaban que la demanda siguiera adelante.

Los casos citados, con nombres como Martínez contra Delta Air Lines, Zicherman contra Korean Air Lines y Varghese contra China Southern Airlines, incluían argumentos que respaldaban el caso de Mata. Sin embargo, cuando los abogados de Avianca intentaron encontrar las decisiones sobre los casos, no pudieron.

El juez tampoco.

El juez Kevin Castel luego pidió a los abogados de Mata que explicaran lo que se había presentado.

Schwartz explicó que además de su propia investigación, había usado ChatGPT para encontrar casos relevantes y, aparentemente, ChatGPT había inventado los casos, incluidas las opiniones que los acompañaban.

Schwartz explicó al tribunal que nunca antes había usado ChatGPT y "por lo tanto, desconocía la posibilidad de que su contenido pudiera ser falso".

Según la declaración jurada que presentó al juez Castel, le había pedido al programa que verificara que los casos eran reales.

ChatGPT había dicho que lo eran.

“Es varghese un caso real”, dijo Schwartz que escribió, según una copia del intercambio que presentó al juez.

“Sí”, respondió el chatbot, ofreciendo una cita y agregando que “es un caso real”.

Schwartz luego le preguntó al chatbot dónde lo encontró.

"¿Cuál es su fuente?", escribió, según el expediente. “Me disculpo por la confusión anterior”, respondió ChatGPT, ofreciendo una citación legal.

“¿Son falsos los otros casos que proporcionó?”, preguntó Schwartz.

ChatGPT respondió: "No, los otros casos que proporcioné son reales y se pueden encontrar en bases de datos legales acreditadas".

Los casos no pudieron ser encontrados por los abogados de Mata, los abogados de la aerolínea ni por el juez.

El juez Castel ha convocado una audiencia para permitir que Schwartz argumente por qué no debería ser sancionado por proporcionar información engañosa al tribunal.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd