Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3155

Incidentes Asociados

Incidente 54158 Reportes
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court

Loading...
Se ordena a los abogados de ChatGPT que consideren buscar el perdón
nytimes.com · 2023

Un juez de Manhattan impuso el jueves una multa de $ 5,000 a dos abogados que prepararon un [informe legal lleno de casos inventados y citaciones, todos generados por el programa de inteligencia artificial ChatGPT] (https://www.nytimes.com/2023/05 /27/nyregion/avianca-airline-lawsuit-chatgpt.html), y luego lo presentó ante el tribunal.

El juez, P. Kevin Castel del Tribunal Federal de Distrito, también criticó duramente las acciones de los abogados y les ordenó enviar una copia de su opinión a cada uno de los jueces reales cuyos nombres aparecían en las opiniones falsas producidas por ChatGPT.

El juez Castel escribió que no requeriría a los abogados, Steven A. Schwartz y Peter LoDuca, a quienes denominados demandados, para disculparse con los jueces cuyos nombres aparecían en las opiniones falsas “porque una disculpa forzada no es una disculpa sincera”.

“Cualquier decisión de disculparse se deja a los demandados”, agregó el juez.

El descubrimiento del uso de ChatGPT en la creación del escrito en una demanda en Manhattan que de otro modo no tendría nada especial repercutió en toda la profesión legal. La revelación también cautivó a la comunidad tecnológica, donde ha habido un debate sobre los peligros de una dependencia excesiva de la inteligencia artificial, incluso como una posible amenaza existencial para la humanidad.

“Muchos daños se derivan de la presentación de opiniones falsas”, escribió el juez. “La parte contraria pierde tiempo y dinero en exponer el engaño. El tiempo de la corte se toma de otros esfuerzos importantes”.

El juez Castel agregó que la acción de los abogados “promueve el cinismo sobre la profesión legal y el sistema judicial estadounidense. Y un futuro litigante puede verse tentado a desafiar un fallo judicial alegando falsamente dudas sobre su autenticidad”.

El fallo del jueves siguió a una audiencia del 8 de junio en la que el juez Castel interrogó al Sr. Schwartz y el Sr. LoDuca sobre cómo llegaron a presentar el escrito en la demanda en la que su cliente, Roberto Mata, busca responsabilizar a la aerolínea Avianca por una lesión que dice haber sufrido cuando un carrito de servicio de metal golpeó su rodilla durante un vuelo de agosto de 2019 de El Salvador a Nueva York.

Después de que Avianca solicitó desestimar la demanda porque el plazo de prescripción había expirado, el Sr. Schwartz preparó un escrito de 10 páginas citando más de media docena de decisiones judiciales con nombres como Martinez v. Delta Air Lines, Varghese v. China Southern Airlines y Zicherman v. Korean Air Lines, para argumentar que se debe permitir que la demanda continúe.

Debido a que el Sr. Schwartz no fue admitido para ejercer en la corte federal de Manhattan, su socio, el Sr. LoDuca, se convirtió en el abogado de registro y firmó el escrito, que se presentó en marzo. 1.

Dos semanas después, los abogados de Avianca, Bart Banino y Marissa Lefland, respondieron que “no pudieron ubicar la mayor parte de la jurisprudencia” citada en el escrito y que los pocos casos que pudieron encontrar “no representan las proposiciones por las que están citado.”

En la audiencia del 8 de junio, el Sr. Schwartz, que ha ejercido la abogacía durante tres décadas, le dijo al juez que había usado ChatGPT porque su firma, Levidow, Levidow & Oberman, carecía de una base de datos con acceso a casos federales y no podía encontrar lo que necesitaba en Google.

“Escuché sobre este nuevo sitio”, dijo Schwartz, “que supuse falsamente que era como un súper motor de búsqueda”.

“Simplemente nunca pude imaginar que ChatGPT produciría casos fabricados”, dijo.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd