Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3151

Incidentes Asociados

Incidente 54158 Reportes
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court

Loading...
El abogado de Nueva York 'humillado' que usó ChatGPT para un documento judicial 'falso' se disculpa profusamente
nypost.com · 2023

Un abogado de Nueva York que usó ChatGPT para escribir un escrito legal — [citando casos falsos](https://nypost.com/2023/05/30/steven-schwartz-admits-he-used-chatgpt-to-file-bogus -court-doc/) — se disculpó profusamente en la corte el jueves, y se emocionó al explicar que el chatbot de inteligencia artificial lo había "engañado".

Steven Schwartz, del bufete de abogados Levidow, Levidow & Oberman de Tribeca, le dijo a un juez federal de Manhattan que estaba "humillado" por la pifia, diciendo que creía que estaba usando un "motor de búsqueda" y nunca imaginó que la aplicación de inteligencia artificial proporcionaría una jurisprudencia falsa. .

“Me gustaría disculparme sinceramente con su señoría, con esta corte, con los acusados, con mi firma”, dijo Schwartz durante la audiencia en la corte.

“Lamento profundamente mis acciones de esta manera que condujeron a esta audiencia hoy”, dijo Schwartz, con voz temblorosa. “Sufrí tanto profesional como personalmente [debido] a la amplia publicidad que ha generado este tema. Estoy avergonzado, humillado y extremadamente arrepentido”.

Schwartz usó ChatGPT para ayudarlo a encontrar jurisprudencia para reforzar la demanda de su cliente, pero el bot inventó completamente los casos, sin que el abogado lo supiera.

Finalmente, presentó el informe legal citando los casos ficticios, lo que llevó al juez Kevin Castel a llevarlo a la corte para una audiencia sobre si sancionar a la empresa por el problema.

Steven Schwartz se enfrentó a un interrogatorio de un juez sobre el uso de ChatGPT para ayudar con un informe legal, lo que resultó en una jurisprudencia falsa.

Schwartz se vio obligado a hacer una pausa y recomponerse mientras se disculpaba.

“Nunca he estado involucrado en algo como esto en mis 30 años”, dijo Schwartz, quien se vio obligado a hacer una pausa y recomponerse mientras se disculpaba.

“Puedo asegurarle a este tribunal que nada como esto volverá a suceder”, insistió al juez.

Schwartz se disculpó profusamente con el juez por la metedura de pata.

Schwartz había presentado el escrito judicial en el caso de su firma de 2022 en representación de Robert Mata, quien demandó a la aerolínea colombiana Avianca alegando que resultó herido cuando un carrito de servicio de metal golpeó su rodilla en un vuelo a la ciudad de Nueva York.

Algunos de los casos ficticios que citó Schwartz incluyen, Miller v. United Airlines, Petersen v. Iran Air y Varghese v. China Southern Airlines.

La demanda de Mata sigue pendiente.

Castel interrogó a Schwartz durante aproximadamente dos horas el jueves sobre cómo pudo haber permitido que ocurriera tal percance.

Schwartz dijo que nunca creyó que el chatbot mostraría jurisprudencia falsa.

Schwartz insistió repetidamente en que nunca imaginó que ChatGPT fabricaría jurisprudencia por completo.

“Simplemente nunca pude imaginar que ChatGPT fabricaría casos”, dijo Schwartz. “Mi suposición era que estaba usando un motor de búsqueda que usaba fuentes a las que no tengo acceso”.

Schwartz dijo que ChatGPT no especificó que los casos no eran reales, y agregó que "ChatGPT me siguió engañando".

Schwartz dijo que pensaba que el bot de IA era como un motor de búsqueda.

“Simplemente nunca se me ocurrió que estaría inventando casos”, explicó. “Simplemente asumí que no podía acceder al caso completo”.

Schwartz dijo que nunca habría presentado el escrito si hubiera pensado que la jurisprudencia no era real, pero admitió que primero debería haber hecho más diligencia debida.

“En retrospectiva, Dios, desearía haber hecho eso, pero no lo hice”, dijo.

El abogado dijo que ha sido “humillado” por su metedura de pata legal.

Schwartz también admitió que no pudo encontrar los casos completos en Internet, pero dijo que pensaba que podrían haber sido casos en apelación o no publicados.

En un momento, Castel leyó un extracto de uno de los casos inventados y presionó a Schwartz: "¿Podemos estar de acuerdo en que eso es un galimatías legal?"

“Mirándolo ahora, sí”, admitió Schwartz.

Schwartz juró que nunca volvería a usar ChatGPT.

Schwartz renunció a usar la aplicación en el futuro y también dijo que había tomado un curso de capacitación en inteligencia artificial para mejorar su conocimiento de la tecnología.

Thomas Corbino, otro abogado de la firma, le dijo al juez que la compañía nunca antes había sido sancionada y que Schwartz siempre había sido un abogado destacado.

Otro abogado de la firma, Ronald Minkoff, le dijo al juez que los abogados son notoriamente malos con la tecnología.

“No hubo mala conducta intencional aquí”, dijo Minkoff. “Esto fue el resultado de la ignorancia y el descuido. No fue intencional y ciertamente no de mala fe”.

El juez dijo que decidiría si emitir sanciones en una fecha posterior.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd