Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 5480

Incidentes Asociados

Incidente 11384 Reportes
South African Legal Team Reportedly Relied on Unverified ChatGPT Case Law in Johannesburg Body Corporate Defamation Matter

Magistrado reprende a abogados por los "casos falsos" de ChatGPT
timeslive.co.za · 2023

Los abogados de una mujer que alegó haber sido difamada por una persona jurídica en Parkwood, Johannesburgo, quedaron indignados al descubrirse que intentaron usar sentencias inexistentes generadas por ChatGPT para respaldar su caso.

“Los nombres y las citaciones son ficticios, los hechos son ficticios y las decisiones son ficticias”, declaró la semana pasada el tribunal regional de Johannesburgo.

También impuso a la mujer una orden de costas punitivas.

El magistrado Arvin Chaitram afirmó que el incidente fue un “oportuno recordatorio” de que “en lo que respecta a la investigación jurídica, la eficiencia de la tecnología moderna aún necesita una dosis de lectura independiente a la antigua”.

Las sentencias ficticias supusieron un retraso de dos meses, después de que Chaitram aplazara el caso para que los abogados pudieran localizarlas. El caso se presentó por primera vez ante el magistrado en marzo, cuando Claire Avidon, abogada de los fideicomisarios de la persona jurídica, argumentó que una persona jurídica no puede ser demandada por difamación. Esto habría puesto fin al caso.

Pero Jurie Hayes, abogada de la demandante, Michelle Parker, argumentó que existían sentencias anteriores que respondían a esta pregunta. Simplemente, al momento de la audiencia, su equipo aún no había podido acceder a ellas.

Chaitram declaró en su sentencia que decidió en ese momento conceder un aplazamiento hasta finales de mayo. "Dado que la cuestión parecía ser novedosa y podría ser decisiva para toda la acción, el tribunal solicitó a ambas partes que hicieran un esfuerzo conjunto para obtener las autoridades sugeridas".

Lo que siguió fueron dos meses en los que dos equipos de abogados intentaron rastrear sentencias ficticias a las que los abogados de Parker, utilizando inteligencia artificial (IA), habían encontrado referencias previamente, pero que en realidad no existían.

La abogada del demandante, Chantal Rodrigues, de Rodrigues Blignaut Attorneys, afirmó que, al tratarse de un caso complejo y sin precedentes, "encontrar un caso no reportado y precedentes no es una tarea sencilla".

"Se tuvieron que investigar y agotar todas las posibles vías de información y posibles pistas, tanto por medios tradicionales como modernos". Su firma exploró "una de las herramientas de inteligencia artificial más avanzadas hasta la fecha" y posteriormente "hizo seguimiento a los hallazgos recopilados".

Esto implicó "amplias conversaciones con los diversos tribunales superiores de nuestro país, conversaciones con secretarios judiciales de varias provincias y conversaciones con bibliotecarios jurídicos de la biblioteca del Consejo de Práctica Legal", explicó.

El abogado de la persona jurídica, Max Rossle, de Le Mottée Rossle Attorneys, afirmó que su equipo mantuvo una extensa correspondencia con Rodrigues Blignaut Attorneys, quienes enviaron una lista de los nombres de los casos con sus respectivas citas (referencias de dónde se reportaron).

Pero cuando su equipo intentó localizar las sentencias, no las encontraron. Su abogado junior, Ziphozihle Raqowa, dedicó 15 horas durante cuatro días a buscarlas, sin éxito. Los nombres de los casos eran casos reales. Las citaciones eran citas reales. Sin embargo, las citaciones se referían a casos diferentes a los mencionados. Ninguno de los casos o citaciones se relacionaba con demandas por difamación entre personas jurídicas y particulares, afirmó Rossle.

Cuando el equipo solicitó ayuda a la biblioteca del Colegio de Abogados de Johannesburgo, los bibliotecarios afirmaron que tampoco pudieron localizar las sentencias y que sospechaban que ChatGPT había generado los casos.

Finalmente, el viernes antes de que todos regresaran al juzgado, Rossle contactó a los abogados de Parker y les preguntó si habían encontrado las sentencias reales. Le informaron que seguían buscando.

El lunes, en el juzgado, "el abogado del demandante explicó que su abogado había obtenido los casos a través de ChatGPT", según la sentencia.

Rodrigues declaró: “En ningún momento engañamos al tribunal ni a la parte contraria, y la única razón por la que se les proporcionaron nuestras conclusiones fue a petición del magistrado del tribunal regional en aras de la justicia”.

La sentencia dictaminó que los abogados de Parker habían aceptado el resultado del chatbot de IA “sin cerciorarse de su exactitud”.

Sin embargo, dado que el equipo legal no había presentado las sentencias al tribunal, sino solo a la parte contraria, el magistrado afirmó que no habían engañado al tribunal, lo que habría acarreado graves consecuencias. “Parece que los abogados actuaron con exceso de celo y descuido”, declaró el magistrado.

Además, “no pretendían engañar a nadie”. Sin embargo, el “resultado inevitable de este desastre” fue que el equipo del acusado fue engañado, según la sentencia. Por lo tanto, una condena en costas punitivas era razonable.

“De hecho, el tribunal ni siquiera lo considera punitivo. Es simplemente apropiado. La vergüenza asociada a este incidente probablemente sea suficiente castigo para los abogados del demandante”, declaró.

“Los tribunales esperan que los abogados ejerzan una mentalidad independiente y reflexiva, especialmente en asuntos legales novedosos, y ciertamente no que se limiten a repetir como un loro la investigación no verificada de un chatbot”, afirmó.

Rodrigues afirmó: “No deberíamos actuar como luditas, resistiéndonos al progreso natural de la tecnología en la búsqueda de la justicia, y es evidente que la debida diligencia y el rigor siempre son necesarios al explorar estas aguas inexploradas”.

El uso de ChatGPT para la investigación legal fue objeto de informes en los medios estadounidenses el mes pasado después de que un abogado en una demanda por lesiones personales utilizara ChatGPT para preparar una demanda, “pero el bot de inteligencia artificial entregó casos falsos que el abogado luego presentó ante el tribunal”, informó el sitio web de noticias Forbes.com.

En ese caso, el tribunal estaba considerando sancionar al abogado porque, a diferencia de este, los casos falsos citados se habían presentado ante el tribunal. Sin embargo, el fiscal federal afirmó no haber tenido intención de engañar al tribunal, según informó Forbes.com, y añadió que el abogado había explicado en los documentos judiciales que no había utilizado ChatGPT antes para investigación jurídica y que «había oído hablar de la tecnología gracias a sus hijos universitarios».

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • a9df9cf