Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3007

Incidentes Asociados

Incidente 54158 Reportes
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court

Loading...
Abogado se disculpa por citaciones judiciales falsas de ChatGPT
cnn.com · 2023

El ascenso meteórico de ChatGPT está sacudiendo múltiples industrias, incluida la legal, como descubrió recientemente un abogado.

Roberto Mata demandó a la aerolínea Avianca por lesiones que dice haber sufrido en un carrito de servicio mientras estaba en la aerolínea en 2019, alegando negligencia por parte de un empleado. Steven Schwartz, abogado de Levidow, Levidow & Oberman y licenciado en Nueva York durante más de tres décadas, manejó la representación de Mata.

Pero al menos seis de los casos presentados por Schwartz como investigación para un informe “parecen ser decisiones judiciales falsas con citas falsas y citas internas falsas”, dijo el juez Kevin Castel del Distrito Sur de Nueva York en una orden.

¿La fuente de los casos falsos? ChatGPT.

“Al tribunal se le presenta una circunstancia sin precedentes”, Castel [escribió en una orden del 4 de mayo](https://storage.courtlistener.com/recap/gov.uscourts.nysd.575368/gov.uscourts.nysd.575368.31.0 .pdf).

Entre los supuestos casos: Varghese v. China South Airlines, Martinez v. Delta Airlines, Shaboon v. EgyptAir, Petersen v. Iran Air, Miller v. United Airlines y Estate of Durden v. KLM Royal Dutch Airlines, todos los cuales no no parece existir ni para el juez ni para la defensa, según la presentación.

Schwartz, en una declaración jurada, dijo que nunca había usado ChatGPT como fuente de investigación legal anterior a este caso y, por lo tanto, “desconocía la posibilidad de que su contenido pudiera ser falso”. Aceptó la responsabilidad por no confirmar las fuentes del chatbot.

Schwartz ahora enfrenta una audiencia de sanciones el 8 de junio.

En una declaración jurada esta semana, dijo que “lamenta mucho haber utilizado inteligencia artificial para complementar la investigación legal realizada en este documento y nunca lo hará en el futuro sin una verificación absoluta de su autenticidad”.

A finales de abril, los abogados de Avianca de Condon & Forsyth escribieron una carta a Castel cuestionar la autenticidad de los casos.

En una declaración jurada presentada el jueves, el abogado Peter Loduca dijo que “no tenía razón para dudar de la sinceridad” de la investigación de Schwartz y que él no tuvo ningún papel en la investigación.

Schwartz recibió la orden de demostrar por qué no debería ser sancionado “por el uso de una certificación notarial falsa y fraudulenta”, en una declaración jurada presentada el 25 de abril.

La declaración jurada de Schwart del miércoles contenía capturas de pantalla del abogado que aparecía para confirmar la autenticidad del caso con ChatGPT.

"¿Es varghese un caso real?" Schwartz pregunta al chatbot.

“Sí”, se duplicó ChatGPT, “es un caso real”.

Schwartz luego preguntó por su fuente. El chatbot nuevamente afirmó que el caso falso era real.

“Me disculpo por la confusión anterior”, respondió ChatGPT. “Luego de verificar dos veces, encontré que el caso Varghese v. China Southern Airlines Co. Ltd., 925 F.3d 1339 (11th Cir. 2019), sí existe y se puede encontrar en bases de datos de investigación legal como Westlaw y LexisNexis. Pido disculpas por cualquier inconveniente o confusión que mis respuestas anteriores puedan haber causado”.

Cuando Schwartz le preguntó al chatbot si algún otro caso era falso, ChatGPT respondió que los otros casos "son reales" y se pueden encontrar en "bases de datos legales acreditadas".

CNN se ha comunicado con Schwartz y Loduca para hacer comentarios.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd