Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3446

Incidentes Asociados

Incidente 6154 Reportes
Colorado Lawyer Filed a Motion Citing Hallucinated ChatGPT Cases

Loading...
Abogado de Colorado Springs dice que ChatGPT creó casos falsos que citó en documentos judiciales | KRDO
krdo.com · 2023

COLORADO SPRINGS, Colorado (KRDO) - El abogado de Colorado Springs, Zachariah Crabill, pensó que estaba presentando una moción con casos citados que favorecerían el argumento de su cliente, solo para descubrir que muchos de los casos estaban inventados por el software de inteligencia artificial ChatGPT.

Crabill, un abogado con licencia en Colorado durante aproximadamente un año y medio, estaba trabajando en su primer caso de litigio civil. Estaba defendiendo a un cliente acusado de incumplir un acuerdo de pago de un automóvil.

En un documento judicial, admitiendo su error, Crabill dijo que era la primera moción para anular un juicio sumario que él mismo había investigado, redactado y presentado. Había oído hablar de ChatGPT, un chatbot de inteligencia artificial desarrollado por OpenAI, entrenado para seguir instrucciones en un momento dado y proporcionar una respuesta detallada. Así que recurrió a la tecnología de inteligencia artificial para encontrar jurisprudencias que fortalecieran el argumento de su cliente.

“Sentí mi falta de experiencia en investigación y redacción jurídica y, en consecuencia, mi eficiencia en este sentido podría aumentar exponencialmente en beneficio de mis clientes al acelerar la parte de investigación de la redacción que requiere mucho tiempo”, dijo Crabill en un documento judicial.

Ramsey Lama, ex juez del condado de Fremont convertido en abogado defensor, dijo que la investigación jurídica puede consumir mucho tiempo, de 20 a 30 horas en algunos casos. Si bien nunca ha usado ChatGPT, dijo que puede ver lo útil que sería en la industria legal.

“Lo que antes le tomaba a un abogado tal vez 40 o 20 horas hacer, tal vez una herramienta como esta podría condensarlo en dos horas o tal vez 30 minutos”, dijo Lama. “Un resultado más rápido para el cliente es mejor para el cliente. Un resultado más rápido para el cliente le ahorra dinero”.

Ésta era la esperanza de Crabill. Al principio, le preguntó a ChatGPT sobre las leyes existentes en Colorado. Dijo que las respuestas fueron precisas y que confiaba en la tecnología.

Sin embargo, cuando Crabill comenzó a investigar casos para citar en su moción, ChatGPT lo traicionó sin que él se diera cuenta. La tecnología de inteligencia artificial escupió docenas de casos similares al de su cliente, solo que los casos no existían.

Sean Williams, director del Programa de Diseño de Información y Comunicación Técnica de la Universidad de Colorado-Colorado Springs, dijo que este es un error común que muchas personas cometen al utilizar la tecnología de inteligencia artificial.

"Una vez que nos sentimos seguros y cómodos con la información que tenemos, asumimos que la información que nos brinda es correcta", dijo Williams. "Este caso demuestra que no era cierto y esa es la desventaja".

Uno de los casos citados por ChatGPT para Crabill fue Gonzales v. Allstate Ins. Co. de 2014. ChatGPT dijo que en ese caso la acusada no se presentó a la audiencia, pero el tribunal consideró que su ausencia era excusable. Pero este caso no existe, al menos no en su totalidad. Hay un caso Gonzales contra Allstate Ins. Co., pero es de 2002 e involucra una disputa sobre una póliza de seguro luego de un accidente ocurrido fuera del país.

"Basado en la precisión de las respuestas validadas anteriores y la aparente precisión de las citas de jurisprudencia, ni siquiera se me ocurrió que esta tecnología podría ser engañosa", dijo Crabill en documentos judiciales.

Crabill afirma que presentó la moción sin saber que citaba casos falsos. El día de la audiencia se dio cuenta de su error. En un mensaje a uno de los asistentes legales de Baker Law Firm, dijo que cree que todas las citas de casos de ChatGPT son "basura" y no puede encontrarlas en LexisNexis.

El juez que supervisó la audiencia tampoco pudo encontrar los casos y denegó la moción debido a las citaciones falsas. Luego amenazó con presentar una denuncia contra el abogado. La Oficina de Regulaciones de Abogados no pudo confirmar si se había presentado una denuncia contra Crabill.

Lama dijo que Crabill violó su “deber de franqueza ante el tribunal”: la obligación de un abogado de no hacer tergiversaciones materiales de hecho o de derecho. Si bien Lama ve los beneficios de la tecnología de inteligencia artificial, existen claros peligros, dijo.

"Alguien usa software y genera información inexacta y simplemente la envía a la corte; hay un peligro ahí mismo a la vista", dijo Lama.

Lama incluso bromeó diciendo que no quiere que la IA "lo deje sin trabajo".

Sin embargo, Williams es más optimista. Si bien dijo que la tecnología representa una amenaza para los empleos existentes, también dijo que creará otros nuevos.

"Definitivamente hay un futuro para esto en la fuerza laboral porque ya se está utilizando", dijo Williams, refiriéndose a una empresa de marketing que estaba usando ChatGPT para escribir borradores.

"Nos da la oportunidad de ver cosas o imaginar cosas que de otro modo no se nos habrían ocurrido", dijo Williams.

Pero la creatividad de la IA también puede traer “falsedad”, afirmó.

"En este caso particular, se tomaron datos existentes, información existente, y se sesgó", dijo Williams.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd