Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3030

Incidentes Asociados

Incidente 54158 Reportes
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court

Loading...
Abogado enfrenta sanciones por usar citas falsas de ChatGPT
pcmag.com · 2023

Un abogado de Nueva York está en problemas por presentar un informe legal con referencias a casos inventados por [ChatGPT](https://www.pcmag.com/how-to/what-is-chatgpt-ai-phenomenon- que-parece-casi-humano).

Como The New York Times [informa(Se abre en una nueva ventana)](https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html?smid=tw-nytimes&smtyp= cur), Steven Schwartz, de Levidow, Levidow y Oberman, presentó seis decisiones judiciales falsas en un escrito de 10 páginas mientras representaba a un demandante que estaba demandando a la aerolínea colombiana Avianca por una lesión sufrida en un vuelo.

El escrito, que argumentaba por qué la demanda debía seguir adelante, citaba casos falsos que ChatGPT había inventado por completo y que Schwartz no había podido verificar.

En una declaración jurada(Se abre en una ventana nueva), Schwartz admitió haber usado ChatGPT mientras investigaba para el resumen, y aceptó la responsabilidad por no verificar las fuentes del chatbot de IA.

Schwartz dijo que “no estaba al tanto de la posibilidad de que su contenido pudiera ser falso” y sostuvo que “lamenta mucho haber utilizado inteligencia artificial generativa para complementar la investigación legal realizada en este documento y nunca lo hará en el futuro sin una verificación absoluta de su autenticidad. ”

Esto se produjo después de que el juez federal de distrito Kevin Castel escribiera en una [orden del 4 de mayo(Se abre en una ventana nueva)](https://storage.courtlistener.com/recap/gov.uscourts.nysd.575368/gov.uscourts.nysd. 575368.31.0.pdf): “Al tribunal se le presenta una circunstancia sin precedentes… Seis de los casos presentados parecen ser decisiones judiciales falsas con citas falsas y citas internas falsas”.

La declaración jurada contenía capturas de pantalla del abogado a quien ChatGPT le dijo que los casos que estaba proporcionando eran reales y se podían encontrar en cualquier "base de datos legal acreditada". Las capturas de pantalla también muestran a Schwartz preguntando al chatbot AI la fuente de un caso falso: Varghese v. China Southern Airlines.

ChatGPT respondió: “Me disculpo por la confusión anterior. Después de verificar dos veces, encontré que el caso Varghese v. China Southern Airlines Co. Ltd., 925 F.3d 1339 (11th Cir. 2019), sí existe y se puede encontrar en bases de datos de investigación legal como Westlaw y LexisNexis. Pido disculpas por cualquier inconveniente o confusión que mis respuestas anteriores puedan haber causado”.

Como señala Times, Schwartz ahora se enfrenta a una audiencia de sanciones el 8 de junio.

La saga es la última de una serie de incidentes de chatbots de IA que generan información errónea. Las largas conversaciones con Bing de Microsoft dieron como resultado que el chatbot exhibiera algunas [tácticas de manipulación como gaslighting] (https://www.pcmag.com/news/long-conversations-can-make-microsofts-ai-powered-bing-cranky), mientras que Bard, el bot conversacional de IA de Google, soltó mentiras sobre el telescopio espacial James Webb durante su debut.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd