Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3033

Incidentes Asociados

Incidente 54158 Reportes
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court

Loading...
Un abogado se disculpó después de que ChatGPT inventara jurisprudencia en una declaración jurada que presentó
businessinsider.com · 2023

ChatGPT ha visto aumentar su popularidad en los últimos meses a medida que aumenta el optimismo y el escepticismo sobre el nuevo programa de IA generativa.

Sin embargo, la herramienta está en el corazón de un caso para disciplinar a un abogado de Nueva York. Steven Schwartz, abogado de lesiones personales de Levidow, Levidow & Oberman, enfrenta [una audiencia de sanciones](https://storage.courtlistener.com/recap/gov.uscourts.nysd.575368/gov.uscourts.nysd.575368.33.0 .pdf) el 8 de junio, luego de que se revelara que usó [ChatGPT](https://www.businessinsider.com/chatgpt-jobs-at-risk-replacement-artificial-intelligence-ai-labor-trends-2023- 02) para redactar una declaración jurada.

Otro abogado del mismo bufete de abogados, Peter LoDuca, también enfrenta sanciones, pero en una [presentación judicial] (https://storage.courtlistener.com/recap/gov.uscourts.nysd.575368/gov.uscourts.nysd .575368.32.0.pdf) dijo que no hizo ninguna de las investigaciones en la declaración jurada.

La declaración jurada que utilizó ChatGPT fue para una demanda que involucraba a un hombre que alegaba que resultó herido por un carrito de servicio a bordo de un vuelo de Avianca, y presentaba varias decisiones judiciales inventadas.

En una [orden] (https://storage.courtlistener.com/recap/gov.uscourts.nysd.575368/gov.uscourts.nysd.575368.31.0.pdf), el juez Kevin Castel dijo que el incidente presentó al tribunal con " una circunstancia sin precedentes".

"Seis de los casos presentados parecen ser decisiones judiciales falsas con citas falsas y citas internas falsas", escribió Castel.

Ni los abogados de la aerolínea ni el propio Castel pudieron encontrar los casos mencionados en la declaración jurada.

Bart Banino, abogado de Condon & Forsyth, que representa a Avianca, le dijo The New York Times que su empresa podía decir que los casos eran falsos e inicialmente se mostraron escépticos de que se usara un chatbot.

El jueves, Schwartz se disculpó con Castel y agregó que nunca antes había usado la herramienta de inteligencia artificial y que desconocía la posibilidad de que su contenido pudiera ser falso", informó el Times.

Shwartz también agregó que ChatGPT era "una fuente que se ha revelado como poco confiable".

Avianca, LoDuca y Shwartz no respondieron a las solicitudes de comentarios de Insider en el momento de la publicación.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd