Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3046

Incidentes Asociados

Incidente 54158 Reportes
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court

Loading...
Abogado culpa a ChatGPT por 'citas falsas'
canadianlawyermag.com · 2023

Un abogado con más de 30 años de práctica a sus espaldas ha utilizado ChatGPT para un caso, supuestamente por primera vez en su carrera, y ahora es objeto de un proceso disciplinario cuya audiencia está programada para junio.

En Mata v. Avianca, Inc., un caso que se está juzgando actualmente ante el tribunal de distrito de EE. UU. para el Distrito Sur de Nueva York, el demandante Mata demandó a la aerolínea Avianca después de que un empleado se golpeara la rodilla con un carrito de servicio durante un vuelo de 2019 desde El Salvador a Nueva York.

Avianca respondió que el plazo de prescripción de la demanda había expirado y pidió al tribunal que desestimara el caso en su contra.

El demandante objetó con un escrito de 10 páginas citando jurisprudencia para respaldar la afirmación de que la demanda de Mata se había presentado a tiempo. Entre las decisiones judiciales citadas por los abogados de Mata se encuentran Martínez contra Delta Air Lines, Zicherman contra Korean Air Lines y Varghese contra China Southern Airlines, informó el New York Times.

Cuando los abogados de Avianca escribieron al juez de distrito para decirle que no podían encontrar ninguna de las decisiones citadas en el escrito, el tribunal ordenó a la demandante que presentara una declaración jurada que anexaba algunos de los casos citados, lo que la demandante [hizo] (https://storage .courtlistener.com/recap/gov.uscourts.nysd.575368/gov.uscourts.nysd.575368.29.1.pdf).

"Seis de los casos presentados parecen ser decisiones judiciales falsas con citas falsas y citaciones internas falsas", escribió el juez de distrito en una [orden del 4 de mayo de 2023](https://storage.courtlistener.com/recap/gov. uscourts.nysd.575368/gov.uscourts.nysd.575368.31.0.pdf). "A continuación se establece una orden para mostrar la causa por la cual el abogado del demandante no debe ser sancionado".

Fue entonces cuando Steven Schwartz, del bufete de abogados Levidow, Levidow & Oberman, finalmente admitió que había utilizado ChatGPT para "complementar la investigación legal realizada" por él para el informe de Mata, y que ChatGPT había proporcionado seis citas en las que luego se basó, pero que "este tribunal ha encontrado que es inexistente".

En su [declaración jurada] (https://storage.courtlistener.com/recap/gov.uscourts.nysd.575368/gov.uscourts.nysd.575368.32.1.pdf), Schwartz explicó que nunca había usado "Chat GPT". para la investigación jurídica en "más de treinta años de práctica" antes y no era consciente de que su salida podría ser falsa.

Schwartz adjuntó capturas de pantalla de su conversación con ChatGPT a su declaración jurada que mostraba que le había preguntado al modelo de lenguaje amplio (LLM) si Varghese v. China Southern Airlines era un caso real. ChatGPT había respondido afirmativamente.

"Luego de verificar dos veces, descubrí que el caso Varghese v. China Southern Airlines Co. Ltd., 925 F.3d 1339 (11th Cir. 2019), sí existe y se puede encontrar en bases de datos de investigación legal como Westlaw y LexisNexis ", dijo ChatGPT cuando Schwartz le preguntó por su fuente.

Schwartz admitió que fue su culpa por no confirmar las fuentes proporcionadas por el LLM. Expresó su pesar por confiar en ChatGPT y prometió al tribunal de distrito que nunca volvería a hacerlo "sin una verificación absoluta de su autenticidad".

Bart Banino, abogado de Avianca, le dijo al New York Times que su firma, Condon & Forsyth, se especializaba en derecho aeronáutico e inmediatamente sospechó que AI había estado involucrada en la producción de las citas "falsas" en el informe de Mata.

La firma de consultoría e investigación tecnológica Gartner [recientemente advirtió a los oficiales legales y de cumplimiento] (https://www.thelawyermag.com/au/news/general/gartner-ids-six-chatgpt-legal-and-compliance-risks-to-stay -ahead-of/446578?__hstc=208808397.aa3675558db3d757eec905f181576c47.1685498837165.1685498837165.1685498837165.1&__hssc=208808397.1. 1685498837165&__hsfp=1374498491) que las herramientas LLM, incluido ChatGPT, eran propensas a proporcionar información plausible pero incorrecta llamada "alucinaciones".

La audiencia del juez de distrito de EE. UU. [Mata v. Avianca] (https://www.courtlistener.com/docket/63107798/mata-v-avianca-inc/?filed_after=&filed_before=&entry_gte=&entry_lte=&order_by=desc) calificó la situación una "circunstancia sin precedentes" y ordenó una audiencia el 8 de junio para discutir posibles sanciones a Schwartz.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd