Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3026

Incidentes Asociados

Incidente 54158 Reportes
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court

Loading...
ChatGPT citó casos 'falsos' para una presentación ante un tribunal federal de Nueva York. Los abogados involucrados pueden enfrentar sanciones.
cnbc.com · 2023

La demanda de Roberto Mata contra Avianca Airlines no fue tan diferente de muchas otras demandas por lesiones personales presentadas en la corte federal de Nueva York. Mata y su abogado, Peter LoDuca, alegaron que Avianca le causó lesiones personales a Mata cuando fue "golpeado por un carrito de servicio de metal" a bordo de un vuelo de 2019 con destino a Nueva York.

Avianca solicitó el sobreseimiento del caso. Como era de esperar, los abogados de Mata se opusieron a la moción y citaron una variedad de decisiones legales, como es típico en las disputas judiciales. Entonces todo se vino abajo.

Los abogados de Avianca le dijeron al tribunal que no pudo encontrar numerosos casos legales que LoDuca había citado en su respuesta. El juez federal P. Kevin Castel exigió a LoDuca copias de nueve decisiones judiciales que aparentemente fueron utilizadas.

En respuesta, LoDuca presentó el texto completo de ocho casos en un tribunal federal. Pero el problema solo se profundizó, dijo Castel en una presentación, porque los textos eran ficticios y citaban lo que parecían ser "decisiones judiciales falsas con citas falsas y citas internas falsas".

El culpable, finalmente emergería, fue ChatGPT. El popular chatbot de OpenAI había "alucinado", un término para cuando los sistemas de inteligencia artificial simplemente inventan información falsa, y escupió casos y argumentos que eran completamente ficticios. Parecía que LoDuca y otro abogado, Steven Schwartz, habían usado ChatGPT para generar las mociones y el texto legal subsiguiente.

Schwartz, un asociado del bufete de abogados de Levidow, Levidow & Oberman, le dijo al tribunal que él había sido el que estaba manipulando ChatGPT y que LoDuca "no tuvo ningún papel en la realización de la investigación en cuestión", ni "ningún conocimiento de cómo dijo se realizó la investigación”.

El abogado contrario y el juez primero se dieron cuenta de que los casos no existían, lo que brindó a los abogados involucrados la oportunidad de admitir el error.

LoDuca y su firma, sin embargo, parecieron duplicar el uso de ChatGPT, usándolo no solo para la presentación inicialmente problemática, sino también para generar decisiones legales falsas cuando se les solicita que las proporcionen. Ahora, LoDuca y Schwartz pueden enfrentar una sanción judicial, una medida que podría incluso conducir a la inhabilitación.

La moción de la defensa estaba "repleta de citaciones de casos inexistentes", según un expediente judicial.

"A la Corte se le presenta una circunstancia sin precedentes", dijo Castel. Fijó una audiencia para el 8 de junio cuando tanto LoDuca como Schwartz serán llamados a explicarse. Ninguno de los abogados respondió a la solicitud de comentarios de CNBC.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd