Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3048

Incidentes Asociados

Incidente 54158 Reportes
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court

Loading...
Abogado se disculpa por citar casos generados por ChatGPT en la corte
hcamag.com · 2023

En un caso "sin precedentes", un abogado con licencia en Nueva York durante más de tres décadas se disculpó recientemente por presentar casos falsos en los tribunales.

¿Su fuente? El infame ChatGPT.

Steven Schwartz, asociado en la oficina de Nueva York de Levidow, Levidow & Oberman, estaba manejando el caso de Roberto Mata, quien estaba demandando a la aerolínea Avianca después de sufrir lesiones personales mientras se encontraba a bordo de uno de sus transportistas. Avianca solicitó el sobreseimiento del caso, mientras que Mata y sus representantes se opusieron en los tribunales.

Casos 'cuestionables'

En esta medida, sin embargo, los abogados de Avianca señalaron que la muchos de los casos presentados por el abogado de Mata eran "cuestionables".

El Secretario de la Corte de Apelaciones del Undécimo Circuito de los Estados Unidos, en respuesta a la investigación de la Corte, confirmó que uno de los casos citados por Schwartz, el *Varghese v China South Airlines Ltd *, no existe. Otras decisiones citadas por el abogado de Mata que también parecen ser falsas incluyen:

  • Shaboon contra Egyptair
  • Petersen v. Iran Air
  • Martínez v. Delta Airlines, Inc.
  • Patrimonio de Durden v. KLM Royal Dutch Airlines
  • Miller contra United Airlines, Inc.

"A la corte se le presenta una circunstancia sin precedentes", dijo el juez federal de distrito Kevin Castel. "Seis de los casos presentados parecen ser decisiones judiciales falsas con citas falsas y citas internas falsas".

Castel emitió [una orden de mostrar causa] (https://storage.courtlistener.com/recap/gov.uscourts.nysd.575368/gov.uscourts.nysd.575368.31.0.pdf) sobre por qué el abogado de Mata no debe ser sancionado por sus acciones

Uso de ChatGPT en el campo legal

En una declaración jurada, Schwartz explicó que usó ChatGPT para "complementar los investigación" que llevó a cabo, citando el creciente uso de la IA generativa en los bufetes de abogados.

“Fue en consulta con el sitio web de inteligencia artificial generativa ChatGPT que su declarante localizó y citó los siguientes casos en la afirmación en oposición presentada”, dijo.

Según el abogado, nunca ha usado ChatGPT en el pasado para realizar investigaciones legales y "no sabía" que su contenido generado podría ser falso.

“Eso es culpa del declarante, al no confirmar las fuentes proporcionadas por ChatGPT de las opiniones legales que proporcionó”, dijo Schwartz. "Que su declarante no tenía la intención de engañar a este tribunal ni al acusado".

Schwartz agregó que "lamenta mucho" el uso de IA generativa para complementar la investigación legal y ha jurado que "nunca lo hará en el futuro sin una verificación absoluta de su autenticidad".

El abogado también aclaró que su compañero abogado, Peter LoDuca, "no tuvo ningún papel" en la realización de la investigación legal y no fue informado de que se utilizó ChatGPT. LoDuca, en su propia declaración jurada, también defendió que anteriormente no tenía razón dudar de la autenticidad y sinceridad de la investigación de Schwartz.

Riesgos de usar IA

El caso refleja los riesgos expresados por muchos reguladores sobre el uso de IA generativa en el lugar de trabajo. En Nueva Zelanda, la Oficina del Comisionado de Privacidad advirtió sobre la [exactitud de la información](https://www.hcamag.com/nz/specialisation/employment-law/privacy-commissioner-think-about-consequences-of- ai-before-use/447448) creado por la IA generativa.

Esta preocupación se suma a la creciente lista de problemas que tienen los empleadores con la IA generativa, que incluye riesgos de seguridad, después de que Samsung sufriera previamente una [fuga de datos confidenciales](https://www.hcamag.com/asia/specialisation/hr-technology/samsung -electronics-employees-leak-company-info-on-chatgpt-reports/442250) después de que los empleados usaran herramientas impulsadas por IA para resolver problemas en el lugar de trabajo.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd