Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3016

Incidentes Asociados

Incidente 54158 Reportes
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court

Loading...
El abogado citó 6 casos falsos inventados por ChatGPT; Juez lo llama “sin precedentes”
arstechnica.com · 2023

Un abogado está en problemas después de admitir que usó ChatGPT para ayudar a redactar documentos judiciales que citaban seis casos inexistentes inventados por la herramienta de inteligencia artificial.

El abogado Steven Schwartz de la firma Levidow, Levidow & Oberman "lamenta mucho haber utilizado inteligencia artificial generativa para complementar la investigación legal realizada aquí y nunca lo hará en el futuro sin una verificación absoluta de su autenticidad", escribió Schwartz en una [declaración jurada] (https://storage.courtlistener.com/recap/gov.uscourts.nysd.575368/gov.uscourts.nysd.575368.32.1_1.pdf) el 24 de mayo con respecto a las citaciones falsas presentadas previamente en el Tribunal de Distrito de EE. UU. para el Distrito Sur de Nueva York

Schwartz escribió que "el uso de la inteligencia artificial generativa ha evolucionado dentro de los bufetes de abogados" y que "consultó el sitio web de inteligencia artificial ChatGPT para complementar la investigación legal realizada".

Las "citas y opiniones en cuestión fueron proporcionadas por ChatGPT, que también proporcionó su fuente legal y aseguró la confiabilidad de su contenido", escribió. Schwartz admitió que "se basó en las opiniones legales que le proporcionó una fuente que se reveló poco confiable" y afirmó que es su culpa por no confirmar las fuentes proporcionadas por ChatGPT.

Schwartz no consideró previamente la posibilidad de que una herramienta de inteligencia artificial como ChatGPT pudiera proporcionar información falsa, a pesar de que los errores del chatbot de IA han sido ampliamente informados por inteligencia no artificial, como los periodistas humanos empleados por [organizaciones de noticias acreditadas] (https:/ /arstechnica.com/information-technology/2023/04/why-ai-chatbots-are-the-ultimate-bs-machines-and-how-people-hope-to-fix-them/). La declaración jurada del abogado decía que "nunca había utilizado ChatGPT como fuente para realizar una investigación legal antes de este hecho y, por lo tanto, desconocía la posibilidad de que su contenido pudiera ser falso".

Juez pesa “circunstancia inédita”

El juez federal Kevin Castel está considerando castigos para Schwartz y sus asociados. En una orden del viernes, Castel programó una audiencia para el 8 de junio en la que Schwartz , el colega abogado Peter LoDuca, y el bufete de abogados deben demostrar motivos por los que no deben ser sancionados.

"A la corte se le presenta una circunstancia sin precedentes", escribió Castel en una [orden anterior del 4 de mayo](https://storage.courtlistener.com/recap/gov.uscourts.nysd.575368/gov.uscourts.nysd.575368.31 .0_1.pdf). "Una presentación presentada por el abogado del demandante en oposición a una moción de desestimación está repleta de citas de casos inexistentes... Seis de los casos presentados parecen ser decisiones judiciales falsas con citas falsas y citas internas falsas".

Los [archivos] (https://www.courtlistener.com/docket/63107798/mata-v-avianca-inc/?filed_after=&filed_before=&entry_gte=&entry_lte=&order_by=desc#entry-29) incluyeron no solo los nombres de los -up casos sino también una serie de pruebas con "extractos" de las decisiones falsas. Por ejemplo, la opinión falsa Varghese v. China Southern Airlines citó varios precedentes eso no existe

"La decisión falsa de 'Varghese' contiene citas internas y citas que, a su vez, son inexistentes", escribió Castel. Otras cinco "decisiones presentadas por el abogado del demandante contienen deficiencias similares y también parecen ser falsas", escribió Castel.

Los otros cinco casos falsos se llamaron Shaboon v. Egyptair, Petersen v. Iran Air, Martinez v. Delta Airlines, Estate of Durden v. KLM Royal Dutch Airlines y Miller v. United Airlines.


Abogado: ChatGPT dijo que los casos eran reales

Schwartz proporcionó un extracto de las consultas de ChatGPT en las que preguntó a la herramienta de inteligencia artificial si Varghese es un caso real. ChatGPT respondió que "es un caso real" y "se puede encontrar en bases de datos de investigación legal como Westlaw y LexisNexis". Cuando se le preguntó si los otros casos proporcionados por ChatGPT son falsos, respondió: "No, los otros casos que proporcioné son reales y se pueden encontrar en bases de datos legales acreditadas como LexisNexis y Westlaw".

El caso que no fue inventado por un chatbot de IA es Roberto Mata vs. Avianca. Mata busca daños y perjuicios por las lesiones sufridas durante un vuelo de Avianca de El Salvador a Nueva York en agosto de 2019 cuando un carrito de refrigerios y bebidas de metal golpeó su rodilla.

La demanda de Mata contra la aerolínea se presentó originalmente en un tribunal del estado de Nueva York, pero Avianca la trasladó a un tribunal federal. Schwartz estaba manejando el caso desde el principio, pero no fue admitido para ejercer en la corte federal del Distrito Sur de Nueva York. El equipo legal decidió que Schwartz continuara con el trabajo legal mientras LoDuca manejaba la presentación de documentos porque fue admitido en la corte federal.

El 1 de marzo, LoDuca citó los casos falsos en un breve que se oponía a la decisión de Avianca moción para desestimar el caso. Aparentemente escrito por Schwartz a pesar de tener el nombre de LoDuca, el escrito usó las citas falsas para argumentar que el caso debería ser escuchado en un tribunal del estado de Nueva York donde se aplicaría un estatuto de limitaciones de tres años.

"En Shaboon v. Egyptair, el Tribunal de Apelaciones de Illinois sostuvo que los tribunales estatales tienen jurisdicción concurrente sobre los reclamos que surjan de un accidente de una aerolínea internacional en virtud del Convenio de Montreal, y que el demandante no estaba obligado a presentar su reclamo ante un tribunal federal", dice el escrito. dijo, citando uno de los casos falsos.

Las citas falsas generan confusión

Se produjo confusión ya que nadie más pudo encontrar los casos citados. Castel emitió una orden el 11 de abril diciendo que LoDuca "presentará una declaración jurada anexando copia de los siguientes casos citados en su presentación ante el tribunal”, y que “el incumplimiento dará lugar a la desestimación de la presente acción”.

El abogado del demandante siguió insistiendo en que los casos eran reales. LoDuca presentó una declaración jurada el 25 de abril en la que juraba la autenticidad de los casos falsos, incluido uno, Shaboon v. Egyptair, que afirmó que era "una opinión no publicada". Un día después de la presentación, el equipo legal de Avianca escribió que "la autenticidad de muchos de estos casos es cuestionable". Dado que los casos no existen, los abogados del acusado no pudieron encontrarlos utilizando herramientas como Westlaw, PACER y Lexis Courtlink.

En la orden emitida el viernes de la semana pasada, Castel dijo que Schwartz podría ser sancionado por "la citación de casos inexistentes a la Corte", "la presentación a la Corte de copias de opiniones judiciales inexistentes" y "el uso de una certificación notarial falsa y fraudulenta”. Schwartz también puede ser remitido a un comité de quejas de abogados para recibir un castigo adicional.

Castel escribió que LoDuca puede ser sancionado “por el uso de una certificación notarial falsa y fraudulenta en su declaración jurada presentada el 25 de abril de 2023”. La firma de abogados podría ser sancionada por "la citación de casos inexistentes a la Corte", "la presentación a la Corte de copias de opiniones judiciales inexistentes anexadas a la Declaración Jurada presentada el 25 de abril de 2023", y "el uso de una certificación notarial falsa y fraudulenta en la declaración jurada presentada el 25 de abril de 2023”.

La declaración jurada de Schwartz decía que LoDuca "no tuvo ningún papel" en la realización de la investigación defectuosa. Schwartz dijo que no tenía la intención de engañar al tribunal ni al acusado y que él y LoDuca nunca "han sido citados por ninguna mala conducta legal de ningún tipo ni han sido sancionados por este Tribunal ni por ningún otro tribunal en más de treinta años de práctica".

LoDuca escribió en su propia declaración jurada que él "no realizó personalmente ninguno de la investigación legal" y no tenía ningún "conocimiento personal de cómo se llevó a cabo la [investigación]". LoDuca dijo que ha trabajado con Schwartz durante más de 25 años y "no tenía motivos para dudar de la autenticidad de la jurisprudencia" que proporcionó Schwartz. LoDuca pidió al juez que evite dictar sanciones en su contra porque "no hubo mala fe ni intención de engañar ni al Tribunal ni al imputado".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd