Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3150

Incidentes Asociados

Incidente 54158 Reportes
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court

Loading...
Abogado que citó casos inventados por AI pide al juez que evite las sanciones
reuters.com · 2023

Un abogado de Nueva York pidió el jueves a un juez federal de Manhattan que no lo sancionara después de que incluyera [citas de casos inventadas] (https://www.reuters.com/legal/transactional/lawyer-used-chatgpt-cite-bogus- cases-what-are-ethics-2023-05-30/) generado por un chatbot de inteligencia artificial en un escrito legal.

El abogado, Steven Schwartz, admitió en mayo que había utilizado el programa ChatGPT de OpenAI para ayudar a investigar el escrito, que citaba seis decisiones judiciales inexistentes, en el caso de lesiones personales de un cliente contra Avianca Airlines.

Schwartz dijo en la audiencia del jueves que "nunca" podría haber imaginado que ChatGPT podría inventar casos falsos y que no tenía la intención de engañar a la corte.

El juez federal de distrito P. Kevin Castel, quien le pidió a Schwartz y a su bufete de abogados Levidow, Levidow & Oberman que explicaran por qué no deberían ser sancionados, dijo que emitiría una decisión más adelante.

Los abogados de Avianca primero alertaron al tribunal que no podían localizar los casos citados en el escrito.

Un número creciente de abogados y bufetes de abogados han estado [explorando](https://www.reuters.com/legal/legal-ai-race-draws-more-investors-law-firms-line-up-2023-04- 26/) el uso de IA generativa. La desordenada colisión de Schwartz con la tecnología apareció en los titulares como una ilustración temprana de sus posibles peligros.

Impulsado en parte por el caso de Nueva York, la semana pasada un juez federal en Texas emitió un [requisito](https://www.reuters.com/legal/transactional/us-judge-orders-lawyers-sign-ai-pledge- warning-they-make-stuff-up-2023-05-31/) para que los abogados en casos ante él certifiquen que no usaron IA para redactar sus presentaciones sin que un ser humano verificara su precisión.

Schwartz dijo el jueves que debería haber hecho más para confirmar y verificar los casos.

Schwartz se disculpó ante el tribunal, Avianca y otros en la audiencia. Dijo que ha "sufrido profesional y personalmente" y está avergonzado y humillado.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd