Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3029

Incidentes Asociados

Incidente 54158 Reportes
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court

Loading...
Abogado 'se arrepiente mucho' de usar ChatGPT para investigación legal
newser.com · 2023

Un abogado de Nueva York tomó la decisión imprudente de confiar su investigación legal a ChatGPT y ahora enfrenta su propia audiencia en la corte. La firma de Steven Schwartz, Levidow, Levidow & Oberman, representaba a un cliente que demandaba a la aerolínea colombiana Avianca por lesiones sufridas durante un encuentro con un carrito de servicio cuando presentó documentos que citaban decisiones judiciales relevantes contra otras aerolíneas, como "Miller v. United Airlines". "Shaboon contra EgyptAir" y "Varghese contra China Southern Airlines", según Quartz . El problema era que nadie podía encontrar estos casos. "Seis de los casos presentados parecen ser decisiones judiciales falsas con citas falsas y citaciones internas falsas", escribió el juez Kevin Castel en una orden exigiendo una explicación, según [BBC](https://www.bbc.com/news/ world-us-canada-65735769).

En una declaración jurada presentada el jueves, Schwartz, un colega del abogado del demandante, dijo que "lamenta mucho" el uso de ChatGPT para la investigación. Agregó que era su primera vez y, por lo tanto, "no estaba al tanto de la posibilidad de que su contenido pudiera ser falso", el [New York Times] (https://www.nytimes.com/2023/05/27/nyregion/avianca -airline-lawsuit-chatgpt.html) informes. Los abogados que representaban a Avianca comenzaron a sospechar la participación de AI después de que intentaron encontrar los casos citados sin éxito. Aparentemente, la firma de Schwartz confiaba tanto en los hallazgos del abogado que presentó una lista de números de expediente, fechas, tribunales que habían escuchado los casos y jueces que supuestamente los habían supervisado, según el Times. ChatGPT lo había inventado todo, aunque en defensa de Schwartz, no admitiría el engaño.

Una captura de pantalla enviada a la corte muestra al chatbot diciéndole a Schwartz que "Varghese v. China Southern Airlines" es un caso real. El chatbot incluso afirma haber verificado dos veces sus fuentes, encontrando el caso en bases de datos de referencia legal, incluidas LexisNexis y Westlaw, según la BBC. Schwartz, quien presentó la demanda en la corte estatal antes de que se trasladara a la corte federal de Manhattan, donde no puede ejercer, dijo que el colega que se hizo cargo no tenía idea de sus métodos de investigación. En su declaración jurada, el abogado Peter LoDuca dijo que "no tenía motivos para dudar de la sinceridad" del trabajo de Schwartz. Ambos abogados ahora enfrentan posibles sanciones en una audiencia el 8 de junio, según la BBC. (Los investigadores predicen que los bots de IA se convertirán en "herramientas estándar" para los abogados .)

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd