Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3023

Incidentes Asociados

Incidente 54158 Reportes
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court

Loading...
Abogado 'no sabía' que ChatGPT podría generar investigación legal falsa, ahora enfrenta sanciones
lawandcrime.com · 2023

Un abogado de lesiones personales que representa a un hombre que demandó a una aerolínea ahora enfrenta sanciones por citar casos falsos generados por ChatGPT en documentos judiciales.

Roberto Mata demandó a la aerolínea Avianca luego de que un carrito de servicio de metal lo lesionó en la rodilla durante un vuelo. Como es un procedimiento típico en muchos casos de lesiones personales, Avianca se movió para desestimar el reclamo sobre la base de que el estatuto de limitaciones aplicable había expirado. Los abogados de Mata se opusieron a la moción de desestimación y en los documentos judiciales adjuntos citaron varios casos que respaldaban la posición legal de su cliente: Varghese v. China Southern Airlines, Shaboon v. Egyptair, Petersen v. Iran Air, Martinez v. Delta Airlines, Estate of Durden v. KLM Royal Dutch Airlines, y Miller v. United Airlines.

Sin embargo, de manera problemática, los abogados de Avianca no pudieron encontrar los casos citados en la moción en ninguna parte, incluso después de una extensa investigación legal. Plantearon el problema en una carta al juez federal de distrito Kevin Castel, designado por George W. Bush. En la carta, los abogados de la aerolínea dijeron: “El acusado respetuosamente afirma que la autenticidad de muchos de estos casos es cuestionable”, e indicaron que a pesar de realizar una investigación legal estándar, no se pudo encontrar ninguna señal de los casos citados.

El origen de los misteriosos "casos" se reveló cuando Steven A. Schwartz, del bufete de abogados de Nueva York Levidow, Levidow & Oberman, presentó una [declaración jurada](https://www.documentcloud.org/documents/23828916-schwartz-affidavit?responsive =1&title=1) al tribunal explicando que había utilizado el programa de inteligencia artificial ChatGPT para “complementar la investigación legal” mientras redactaba los documentos. Schwartz le dijo al juez que el programa ahora “se ha revelado como poco confiable”.

Schwartz, quien ha sido abogado desde 1991, dijo que "consultó con" el chatbot para el trabajo legal, pero que debido a que era la primera vez que usaba el programa, “desconocía la posibilidad de que su contenido pudiera ser falso”. De hecho, ChatGPT proporcionó nombres de casos, subtítulos, resúmenes y citas en un formato estándar.

Schwartz aceptó toda la responsabilidad por el error y dijo que no tenía intención de engañar a la corte. También dijo que “lamenta mucho haber usado inteligencia artificial generativa” y prometió que “nunca lo hará en el futuro sin una verificación absoluta de su autenticidad”. Schwartz también dijo que Peter LoDuca, el abogado designado como asesor legal en el caso, no participó en la redacción del documento que contenía fuentes falsas.

LoDuca, Schwartz y el bufete de abogados ahora enfrentan posibles consecuencias por el error de Schwartz. Castel les ordenó el viernes comparecer el 8 de junio para enfrentar posibles sanciones conforme a las Reglas Federales de Procedimiento Civil por “la citación de casos inexistentes”. Una respuesta por escrito a la posibilidad de sanciones debe presentarse antes del 2 de junio.

Los representantes de Levidow, Levidow & Oberman no respondieron de inmediato a una solicitud de comentarios.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd